OpenAI向部分活跃的Codex用户推出GPT-5.3-Codex-Spark 吐词速度每秒1000个Token

OpenAI向部分活跃的Codex用户推出GPT-5.3-Codex-Spark 吐词速度每秒1000个Token

💡 原文中文,约1500字,阅读约需4分钟。
📝

内容提要

OpenAI 向部分活跃的 Codex 用户推出了 GPT-5.3-Codex-Spark 模型,具备每秒生成 1000 个 Token 的高速性能。该模型仅限 ChatGPT Plus 订阅者测试,支持实时交互,优化开发者体验。

🎯

关键要点

  • OpenAI 向部分活跃的 Codex 用户推出 GPT-5.3-Codex-Spark 模型,具备每秒生成 1000 个 Token 的高速性能。
  • 该模型仅限 ChatGPT Plus 订阅者测试,支持实时交互,优化开发者体验。
  • Codex-Spark 是 OpenAI 与 Cerebras 合作的成果,旨在实现低延迟推理。
  • 被选中的开发者将通过邮件和应用内通知获知是否可以使用 Codex-Spark 模型。
  • Codex-Spark 针对实时交互场景进行优化,允许开发者边写代码边协作,随时调整方向。
  • Codex 现在有两种模式:长时间自主运行的任务和快速迭代的日常编码。
  • Codex-Spark 在基准测试中表现超过 GPT-5.1-Codex-mini,任务完成时间仅为 GPT-5.3-Codex 的一小部分。
  • Codex-Spark 目前有一些限制,包括仅支持 128K 上下文窗口和文本,不支持多模态。
  • OpenAI 还在努力降低整个请求和响应链路的延迟,以提高模型的响应速度。

延伸问答

GPT-5.3-Codex-Spark模型的主要特点是什么?

该模型的主要特点是每秒生成1000个Token的高速性能。

哪些用户可以测试Codex-Spark模型?

仅限于开通ChatGPT Plus订阅且活跃使用Codex的开发者。

Codex-Spark模型如何优化开发者体验?

该模型支持实时交互,允许开发者边写代码边协作,随时调整方向。

Codex-Spark模型与之前的Codex模型有什么不同?

Codex-Spark专注于实时交互,而之前的Codex模型适合长时间自主运行的任务。

Codex-Spark模型目前有哪些限制?

目前仅支持128K上下文窗口和文本,不支持多模态,并有速率限制。

OpenAI如何通知开发者是否可以使用Codex-Spark?

OpenAI会通过邮件和应用内通知告知被选中的开发者。

➡️

继续阅读