💡 原文中文,约1500字,阅读约需4分钟。
📝

内容提要

OpenAI 向部分活跃的 Codex 用户推出了 GPT-5.3-Codex-Spark 模型,具备每秒生成 1000 个 Token 的高速性能。该模型仅限 ChatGPT Plus 订阅者测试,支持实时交互,优化开发者体验。

🎯

关键要点

  • OpenAI 向部分活跃的 Codex 用户推出 GPT-5.3-Codex-Spark 模型,具备每秒生成 1000 个 Token 的高速性能。
  • 该模型仅限 ChatGPT Plus 订阅者测试,支持实时交互,优化开发者体验。
  • Codex-Spark 是 OpenAI 与 Cerebras 合作的成果,旨在实现低延迟推理。
  • 被选中的开发者将通过邮件和应用内通知获知是否可以使用 Codex-Spark 模型。
  • Codex-Spark 针对实时交互场景进行优化,允许开发者边写代码边协作,随时调整方向。
  • Codex 现在有两种模式:长时间自主运行的任务和快速迭代的日常编码。
  • Codex-Spark 在基准测试中表现超过 GPT-5.1-Codex-mini,任务完成时间仅为 GPT-5.3-Codex 的一小部分。
  • Codex-Spark 目前有一些限制,包括仅支持 128K 上下文窗口和文本,不支持多模态。
  • OpenAI 还在努力降低整个请求和响应链路的延迟,以提高模型的响应速度。
➡️

继续阅读