OpenAI称其新推出的Codex-Max模型更优秀、更快速且更经济

OpenAI称其新推出的Codex-Max模型更优秀、更快速且更经济

💡 原文英文,约600词,阅读约需2分钟。
📝

内容提要

OpenAI推出了专为编码任务设计的GPT-5.1-Codex-Max模型,该模型在多个基准测试中表现优异,速度比前代快27%至42%。它首次支持Windows环境,并将在Codex、CLI、IDE扩展等平台上提供给用户。

🎯

关键要点

  • OpenAI推出了专为编码任务设计的GPT-5.1-Codex-Max模型。
  • Codex-Max在多个基准测试中表现优异,速度比前代快27%至42%。
  • 该模型首次支持Windows环境,并能处理长时间运行的任务。
  • Codex-Max在SWE-Bench Verified基准测试中得分77.9%。
  • Codex-Max具有不同的推理模式,包括新的超高模式(xhigh),提高了准确性。
  • Codex-Max在实际编码任务中使用更少的token和工具调用,生成更少的代码行。
  • 新模型现已在Codex的CLI、IDE扩展、云和代码审查中可用,适用于ChatGPT Plus、Pro、Business、Edu和Enterprise计划的用户。

延伸问答

Codex-Max模型的主要特点是什么?

Codex-Max模型专为编码任务设计,速度比前代快27%至42%,支持Windows环境,并能处理长时间运行的任务。

Codex-Max在基准测试中的表现如何?

Codex-Max在SWE-Bench Verified基准测试中得分77.9%,在TerminalBench中得分58.1%。

Codex-Max与前代模型相比有什么优势?

Codex-Max在实际编码任务中使用更少的token和工具调用,生成更少的代码行,且速度更快。

Codex-Max支持哪些平台?

Codex-Max现已在Codex的CLI、IDE扩展、云和代码审查中可用,适用于多个用户计划。

Codex-Max的推理模式有哪些?

Codex-Max具有不同的推理模式,包括新的超高模式(xhigh),提高了准确性。

Codex-Max的推出对开发者有什么影响?

Codex-Max能在真实编码任务中更快地产生结果,可能提高开发效率,尤其是在Windows环境中。

➡️

继续阅读