💡 原文英文,约900词,阅读约需4分钟。
📝

内容提要

NVIDIA推出Nemotron 3 Nano,采用混合Mamba-Transformer MoE架构,支持1M上下文长度,适合高效AI应用。该模型开源,具备出色的编码和推理能力,适用于多行业AI代理开发。

🎯

关键要点

  • NVIDIA推出Nemotron 3 Nano,采用混合Mamba-Transformer MoE架构。
  • Nemotron 3 Nano支持1M上下文长度,适合高效AI应用。
  • 该模型开源,具备出色的编码和推理能力。
  • Nemotron 3 Nano在多个基准测试中表现优异,如SWE Bench Verified和GPQA Diamond。
  • 模型架构为混合专家(MoE),支持最优准确性与最小推理令牌生成。
  • 模型大小为30B,具有3B活跃参数。
  • 支持NVIDIA RTX Pro 6000、DGX Spark、H100和B200等GPU。
  • 通过vLLM实现加速推理,支持BF16和FP8精度。
  • Nemotron 3 Nano在多个行业的AI代理开发中具有广泛应用潜力。
  • 开发者可以从Hugging Face下载模型权重,进行定制和优化。
➡️

继续阅读