💡
原文英文,约600词,阅读约需3分钟。
📝
内容提要
OpenAI推出了gpt-oss-120b开源模型,拥有1200亿参数和混合专家架构,适用于文本生成和理解。开发者可根据Apache 2.0许可证进行调整,支持实时任务执行。该模型性能与OpenAI的o4-mini相当,并可在Heroku平台上简化AI基础设施,提供透明定价。
🎯
关键要点
- OpenAI推出了gpt-oss-120b开源模型,拥有1200亿参数和混合专家架构。
- 该模型适用于文本生成和理解任务,旨在使强大的AI更易于开发者访问。
- gpt-oss-120b作为开源模型,开发者可以检查其架构并进行微调,遵循Apache 2.0许可证。
- 模型采用混合专家架构,1170亿参数中每个token仅激活51亿参数,能够在单个80GB GPU上运行。
- gpt-oss-120b在指令跟随、函数调用和执行任务方面表现出色。
- 根据OpenAI的说法,gpt-oss-120b的性能与o4-mini相当,甚至在某些情况下超过o4-mini。
- 初步基准测试显示gpt-oss-120b在多个任务上与其他开源模型相比表现优异。
- Heroku平台简化了AI基础设施,允许团队零基础设施开销地部署gpt-oss-120b。
- gpt-oss-120b的定价透明,输入token每百万$0.15,输出token每百万$0.60。
- gpt-oss-120b现已在Heroku Managed Inference和Agents附加组件中提供。
❓
延伸问答
gpt-oss-120b模型的参数数量是多少?
gpt-oss-120b模型拥有1200亿参数。
gpt-oss-120b模型的架构是什么?
gpt-oss-120b采用混合专家架构(MoE)。
开发者如何使用gpt-oss-120b模型?
开发者可以根据Apache 2.0许可证对gpt-oss-120b进行微调和调整。
gpt-oss-120b在性能上与哪些模型相当?
gpt-oss-120b的性能与OpenAI的o4-mini模型相当,甚至在某些情况下超过o4-mini。
Heroku平台如何支持gpt-oss-120b的部署?
Heroku平台简化了AI基础设施,允许团队零基础设施开销地部署gpt-oss-120b。
gpt-oss-120b的定价是怎样的?
gpt-oss-120b的定价为输入token每百万$0.15,输出token每百万$0.60。
➡️