💡
原文中文,约2300字,阅读约需6分钟。
📝
内容提要
Mistral AI 发布了 Mistral Small 4,具备指令执行、推理和多模态理解功能,支持256k上下文窗口,具有可配置推理强度,提升了推理效率和经济性,适合通用聊天和复杂推理。
🎯
关键要点
- Mistral AI 发布了 Mistral Small 4,整合了多种功能于一个模型中。
- 该模型为混合专家 (MoE) 模型,包含128位专家,每个token有4位活跃专家。
- 支持256k的上下文窗口,适用于长文档分析和多模态任务。
- 引入可配置的推理强度,允许开发者根据需求调整推理深度。
- 在延迟优化下,完成时间缩短40%,吞吐量提高3倍。
- 推理性能与GPT-OSS 120B持平或更优,且输出更短。
- 提供自托管架构指导,建议使用特定的NVIDIA硬件配置。
➡️