OpenAI发布了gpt-oss-120b和gpt-oss-20b两款开源大模型,前者适合复杂推理,后者适合低延迟应用。gpt-oss采用MoE架构,性能强大且计算需求低,支持在消费级硬件上运行。评测显示,gpt-oss-120b在多个任务中优于o3-mini,gpt-oss-20b表现也很出色。用户可通过HyperAI官网体验和部署这些模型。
OpenAI发布了gpt-oss-120b和gpt-oss-20b两个开放权重语言模型,支持高效推理和工具使用。120b模型可在单个80GB GPU上运行,超越o4-mini;20b模型适合16GB内存的消费级硬件,支持本地推理。两者可配置推理力度,适用于多种应用场景。模型经过风险评估,并接受外部专家审查,推出红队挑战以进一步评估。
OpenAI发布了gpt-oss-120b和gpt-oss-20b两个开源大模型,前者适合复杂推理,后者适合低延迟应用。两者在多项测试中表现优异,能够在消费级硬件上运行,满足多场景需求。
OpenAI发布了两个开放权重的AI推理模型gpt-oss-120b和gpt-oss-20b,供免费下载。gpt-oss-120b可在单个Nvidia GPU上运行,而gpt-oss-20b适用于16GB内存的笔记本电脑。这是自GPT-2以来首次发布的开放语言模型。
OpenAI 开源了两款轻量级语言模型 gpt-oss-120b 和 gpt-oss-20b,均基于 Transformer 架构,支持商用。gpt-oss-120b 拥有 1170 亿参数,适合高性能需求;gpt-oss-20b 拥有 210 亿参数,适合边缘设备。两者可在 Hugging Face 下载和在线试用。
完成下面两步后,将自动完成登录并继续当前操作。