刚刚,OpenAI开源2个推理模型:笔记本/手机就能跑,性能接近o4-mini

💡 原文中文,约3600字,阅读约需9分钟。
📝

内容提要

OpenAI开源了两个推理模型gpt-oss-120b和gpt-oss-20b,分别拥有1170亿和210亿参数,支持在笔记本和手机上运行。它们的推理性能接近闭源模型,但在复杂任务中稍显不足。此举旨在推动AI民主化,降低使用门槛,促进创新。

🎯

关键要点

  • OpenAI开源了两个推理模型:gpt-oss-120b和gpt-oss-20b,分别拥有1170亿和210亿参数。

  • 这两个模型支持在笔记本和手机上运行,性能接近闭源模型,但在复杂任务中稍显不足。

  • gpt-oss-120b可在单张80GB GPU上运行,gpt-oss-20b可在16GB内存的消费级设备上运行。

  • 这两个模型采用Apache 2.0许可证,允许商用无需付费或授权。

  • 在工具使用、少样本函数调用和链式思考推理方面表现强劲,甚至超越了OpenAI的专有模型。

  • gpt-oss模型使用了最先进的预训练和后训练技术,特别关注推理效率和实际可用性。

  • 模型采用专家混合(MoE)架构,减少处理输入所需的活跃参数数量。

  • OpenAI希望通过开源模型推动AI民主化,降低使用门槛,促进创新。

  • 这些开源模型为开发者提供了更多工具选项,加速前沿研究,支持更安全、透明的AI开发。

  • OpenAI强调,开发者不应直接展示模型的链式思维内容,以避免虚构或有害信息的传播。

延伸问答

OpenAI开源了哪些推理模型?

OpenAI开源了gpt-oss-120b和gpt-oss-20b两个推理模型。

这两个模型的参数量分别是多少?

gpt-oss-120b拥有1170亿参数,gpt-oss-20b拥有210亿参数。

这些模型可以在什么设备上运行?

gpt-oss-120b可以在单张80GB GPU上运行,gpt-oss-20b可以在16GB内存的消费级设备上运行。

OpenAI开源这些模型的目的是什么?

OpenAI希望通过开源模型推动AI民主化,降低使用门槛,促进创新。

这两个模型的许可证是什么?

这两个模型采用Apache 2.0许可证,允许商用无需付费或授权。

gpt-oss模型在复杂任务中的表现如何?

在复杂任务中,gpt-oss模型的表现稍显不足,低于闭源模型。

➡️

继续阅读