OpenAI 发布 GPT‑5 Codex Mini 模型:更高效、更低成本
OpenAI 正式上线了更轻量的 GPT-5 Codex Mini 模型,主打更高效、更低成本的代码生成能力。同时,OpenAI 还扩大了 Codex 的使用额度:用户可在现有订阅计划与积分体系下获得更多调用量。
在服务层级方面,OpenAI 也进行了调整:
-
ChatGPT Plus、Business 与 Edu 用户获得约50% 的速率限制提升,可实现更顺畅的请求处理。
-
ChatGPT Pro 与 Enterprise 用户则将享有优先任务处理,进一步缩短响应延迟。
OpenAI 建议开发者在处理简单的软件工程任务或即将达到调用率限制时选择 GPT-5-Codex-Mini。事实上,当调用量达到配额的 90% 时,Codex 会自动推荐用户切换至 GPT-5-Codex-Mini。该新模型现已支持 CLI 和 IDE 扩展,API 接口也将很快开放。
OpenAI 团队还对 Codex 进行了底层优化,保证开发者在一整天内都可以获得一致的使用体验。此前模型的实际调用量会因流量负载和路由分配变化而有波动,优化后这一问题已得到解决。

