💡
原文中文,约2300字,阅读约需6分钟。
📝
内容提要
Mistral AI 发布了 Mistral Small 4,具备指令执行、推理和多模态理解功能,支持256k上下文窗口,具有可配置推理强度,提升了推理效率和经济性,适合通用聊天和复杂推理。
🎯
关键要点
- Mistral AI 发布了 Mistral Small 4,整合了多种功能于一个模型中。
- 该模型为混合专家 (MoE) 模型,包含128位专家,每个token有4位活跃专家。
- 支持256k的上下文窗口,适用于长文档分析和多模态任务。
- 引入可配置的推理强度,允许开发者根据需求调整推理深度。
- 在延迟优化下,完成时间缩短40%,吞吐量提高3倍。
- 推理性能与GPT-OSS 120B持平或更优,且输出更短。
- 提供自托管架构指导,建议使用特定的NVIDIA硬件配置。
❓
延伸问答
Mistral Small 4 的主要功能是什么?
Mistral Small 4 结合了指令执行、推理、多模态理解和智能体编码等功能,作为一个通用助手和推理模型运行。
Mistral Small 4 的架构特点是什么?
Mistral Small 4 是一个混合专家 (MoE) 模型,包含128位专家,每个token有4位活跃专家,总参数量为1190亿。
Mistral Small 4 支持多大的上下文窗口?
该模型支持256k的上下文窗口,适用于长文档分析和多模态任务。
如何调整 Mistral Small 4 的推理强度?
开发者可以通过设置 reasoning_effort 参数来调整推理强度,从而在延迟和推理深度之间进行权衡。
Mistral Small 4 的推理性能如何?
在推理基准测试中,Mistral Small 4 的性能与GPT-OSS 120B持平或更优,且输出更短。
Mistral Small 4 的部署要求是什么?
建议的最低部署配置为4块NVIDIA HGX H100或2块NVIDIA HGX H200,或1块NVIDIA DGX B200。
➡️