💡
原文中文,约1500字,阅读约需4分钟。
📝
内容提要
OpenAI 向部分活跃的 Codex 用户推出了 GPT-5.3-Codex-Spark 模型,具备每秒生成 1000 个 Token 的高速性能。该模型仅限 ChatGPT Plus 订阅者测试,支持实时交互,优化开发者体验。
🎯
关键要点
- OpenAI 向部分活跃的 Codex 用户推出 GPT-5.3-Codex-Spark 模型,具备每秒生成 1000 个 Token 的高速性能。
- 该模型仅限 ChatGPT Plus 订阅者测试,支持实时交互,优化开发者体验。
- Codex-Spark 是 OpenAI 与 Cerebras 合作的成果,旨在实现低延迟推理。
- 被选中的开发者将通过邮件和应用内通知获知是否可以使用 Codex-Spark 模型。
- Codex-Spark 针对实时交互场景进行优化,允许开发者边写代码边协作,随时调整方向。
- Codex 现在有两种模式:长时间自主运行的任务和快速迭代的日常编码。
- Codex-Spark 在基准测试中表现超过 GPT-5.1-Codex-mini,任务完成时间仅为 GPT-5.3-Codex 的一小部分。
- Codex-Spark 目前有一些限制,包括仅支持 128K 上下文窗口和文本,不支持多模态。
- OpenAI 还在努力降低整个请求和响应链路的延迟,以提高模型的响应速度。
❓
延伸问答
GPT-5.3-Codex-Spark模型的主要特点是什么?
该模型的主要特点是每秒生成1000个Token的高速性能。
哪些用户可以测试Codex-Spark模型?
仅限于开通ChatGPT Plus订阅且活跃使用Codex的开发者。
Codex-Spark模型如何优化开发者体验?
该模型支持实时交互,允许开发者边写代码边协作,随时调整方向。
Codex-Spark模型与之前的Codex模型有什么不同?
Codex-Spark专注于实时交互,而之前的Codex模型适合长时间自主运行的任务。
Codex-Spark模型目前有哪些限制?
目前仅支持128K上下文窗口和文本,不支持多模态,并有速率限制。
OpenAI如何通知开发者是否可以使用Codex-Spark?
OpenAI会通过邮件和应用内通知告知被选中的开发者。
➡️