时隔六年再开源,OpenAI 发布两款语言模型,主打端侧场景

时隔六年再开源,OpenAI 发布两款语言模型,主打端侧场景

💡 原文中文,约2500字,阅读约需6分钟。
📝

内容提要

OpenAI于2025年发布了两款开源语言模型gpt-oss-120b和gpt-oss-20b,支持128k上下文,性能接近其商用模型。模型采用Transformer-MoE架构,具备强大的工具使用能力,并设立安全评估机制,标志着开源大模型领域的重要进展。

🎯

关键要点

  • OpenAI于2025年发布了两款开源语言模型gpt-oss-120b和gpt-oss-20b。
  • 这两款模型支持128k上下文,性能接近商用模型。
  • 模型采用Transformer-MoE架构,具备强大的工具使用能力。
  • gpt-oss-120b和gpt-oss-20b分别有116.8b和20.9b参数,支持长上下文和多种推理模式。
  • gpt-oss-120b在多个评测中与OpenAI商用模型表现相当,gpt-oss-20b在某些任务中表现优于gpt-o3-mini。
  • 模型使用了新的o200k_harmony分词器,训练数据主要集中在STEM和代码领域。
  • OpenAI首次公开了针对模型的恶意微调极限测试,结果显示模型在安全性方面仍有不足。
  • OpenAI设立了50万美元的奖金池,鼓励研究者发现新型安全问题。
  • 模型的生态系统覆盖云服务、推理框架和硬件厂商,支持多种部署方式。
  • gpt-oss的发布标志着开源大模型领域的重要进展,可能引发新一轮创新浪潮。

延伸问答

OpenAI发布了哪两款开源语言模型?

OpenAI发布了gpt-oss-120b和gpt-oss-20b两款开源语言模型。

这两款模型的参数和上下文支持是什么?

gpt-oss-120b有116.8亿参数,gpt-oss-20b有20.9亿参数,均支持128k上下文。

gpt-oss-120b和gpt-oss-20b的性能如何?

gpt-oss-120b在多个评测中表现与OpenAI商用模型相当,gpt-oss-20b在某些任务中表现优于gpt-o3-mini。

这两款模型采用了什么架构?

这两款模型采用了Transformer-MoE架构。

OpenAI如何评估模型的安全性?

OpenAI首次公开了针对模型的恶意微调极限测试,并设立了50万美元的奖金池以鼓励研究者发现新型安全问题。

gpt-oss模型的生态系统包括哪些方面?

gpt-oss的生态系统覆盖云服务、推理框架和硬件厂商,支持多种部署方式。

➡️

继续阅读