AI进销存2025年11月08日 16:51消息,GPT-5-Codex-Mini发布,高效编程新选择,性能强劲,成本更低。
11 月 8 日消息,OpenAI 于今年 9 月正式推出 GPT-5-Codex,这款基于 GPT-5 架构的专用模型专为 Codex 平台上的“自主编码”任务而优化,在推理能力与编程表现上相较前代实现了显著提升。作为 OpenAI 在软件工程智能化方向的重要布局,GPT-5-Codex 自发布以来便受到开发者社区的高度关注。
GPT-5-Codex 的核心优势在于其对真实软件工程场景的深度适配。无论是从零开始创建项目、添加新功能、编写测试用例,还是执行大规模代码重构,该模型均展现出接近专业开发者的理解力与执行力。这种端到端的编码支持能力,标志着 AI 辅助编程正从“代码补全”迈向“任务驱动”的新阶段。
据外媒 Neowin 报道,OpenAI 今日进一步发布了 GPT-5-Codex-Mini——顾名思义,这是 GPT-5-Codex 的轻量级版本,旨在降低使用成本并提升资源利用率。尽管性能相较原版略有下降,但其性价比优势明显:开发者在相同预算下可获得约 4 倍的调用额度。在权威的 SWE-bench Verified 测试中,GPT-5 High 得分为 72.8%,GPT-5-Codex 以 74.5% 领先,而 GPT-5-Codex-Mini 则达到 71.3%,依然优于多数现有编程模型。这一数据表明,Mini 版并非简单缩水,而是经过精心平衡后的高效替代方案。
OpenAI 明确建议将 GPT-5-Codex-Mini 应用于轻量级工程任务,或在接近速率上限时作为替代选择。当系统使用率达到 90% 时,Codex 平台将自动提示用户切换至 Mini 模型,从而保障开发流程的连续性。目前该模型已上线 CLI 和 IDE 扩展,API 支持也即将推出,显示出 OpenAI 对开发者工作流无缝集成的重视。此举不仅提升了灵活性,也为中小型团队和独立开发者降低了 AI 编程的门槛。
值得一提的是,借助 GPU 效率的持续优化,ChatGPT Plus、Business 和 Edu 用户的调用速率上限将提升 50%,而 Pro 与 Enterprise 用户则享有优先调度权,确保更快速的响应体验。这一升级反映出 OpenAI 正在构建更加分层化、精细化的服务体系,满足不同用户群体的实际需求。
此外,OpenAI 还对 Codex 后台系统进行了关键优化,有效解决了此前因缓存未命中或流量路由异常导致的性能波动问题。如今,开发者无论何时访问,都能获得稳定且可预测的服务质量。这不仅是技术层面的进步,更是对开发者信任的回应——稳定性是生产环境中 AI 工具能否被真正采纳的关键因素之一。
从行业角度看,GPT-5-Codex 系列的持续迭代,尤其是 Mini 版本的推出,预示着 AI 编程工具正在走向“精准匹配”而非“一味追求大模型”的成熟阶段。与其盲目堆叠参数,不如根据任务复杂度提供差异化解决方案,这种思路值得肯定。长远来看,随着更多企业将 AI 深度融入研发流程,类似 GPT-5-Codex 这样的专用模型将成为软件开发的新基建。我们有理由期待,未来的程序员不是被 AI 取代,而是在 AI 的协同下,专注于更高价值的创造性工作。