💡
原文中文,约7000字,阅读约需17分钟。
📝
内容提要
OpenAI发布了开源模型GPT-OSS,包含20B和120B两种参数,采用混合专家模型,支持128K的上下文。这一举措加剧了中美AI竞争,展示了不同的开源策略。中国的开源模型如千问和DeepSeek直接开放最新版本,与美国的“开小闭大”策略形成对比。两国在AI领域的博弈将持续,未来发展值得关注。
🎯
关键要点
- OpenAI发布了开源模型GPT-OSS,包含20B和120B两种参数,采用混合专家模型,支持128K的上下文。
- 中美在AI领域的竞争加剧,展示了不同的开源策略。
- 中国的开源模型如千问和DeepSeek直接开放最新版本,与美国的“开小闭大”策略形成对比。
- GPT-OSS使用MXFP4量化技术,训练时采用4位指针,节省空间且速度快。
- GPT-OSS是从头开始原生训练的模型,使用数万亿TOKEN的纯文本进行训练。
- 模型的知识截止到2024年6月,具备强大的搜索和工具调用能力。
- 20B模型的效能相当于GPT-3 mini,120B模型相当于GPT-4 mini。
- 中国的开源模型在本地处理敏感数据方面具有优势,但需要申请合规牌照。
- OpenAI开源的原因是为了满足对本地模型的需求,避免数据泄露。
- 中美之间的开源策略存在四种模式,包括混沌模式、开旧闭新模式、开小闭大模式和中国的全开模式。
- 中国的开源策略是“应开全开”,直接开放最新的、最大的模型。
- 中美博弈中,中国通过“田忌赛马”的策略在某些领域占优。
- 美国的策略旨在保障巨头地位,而中国的策略可能培养出颠覆市场的竞争者。
- AI领域的未来可能受到中国民族性烙印的影响,研发人员中有一半以上是中国人。
❓
延伸问答
GPT-OSS模型的参数有哪些?
GPT-OSS模型包含20B和120B两种参数。
OpenAI开源GPT-OSS的原因是什么?
OpenAI开源GPT-OSS是为了满足对本地模型的需求,避免数据泄露。
中美AI开源策略有什么不同?
中国的开源策略是“应开全开”,直接开放最新的、最大的模型,而美国则采用“开小闭大”的策略。
GPT-OSS使用了什么技术来提高模型性能?
GPT-OSS使用了MXFP4量化技术,采用4位指针进行训练,节省空间且速度快。
中国的开源模型在处理敏感数据方面有什么优势?
中国的开源模型在本地处理敏感数据方面具有优势,但需要申请合规牌照。
GPT-OSS的知识截止到什么时候?
GPT-OSS的知识截止到2024年6月。
➡️