混元大模型:腾讯推出的开源MoE模型,激活参数达到520亿
原文中文,约300字,阅读约需1分钟。发表于: 。本研究解决了现有开源Transformer混合专家模型在参数效率和性能上的不足,介绍了混元大模型,该模型拥有3890亿参数,其中520亿为激活参数。研究表明,该模型在多项基准测试中表现优越,超越了LLama3.1-70B,并在与更大模型LLama3.1-405B的比较中展现出相当的性能,推动未来模型开发和优化的进展。
本研究提出了一种混元大模型,参数达到3890亿,克服了开源Transformer混合专家模型的不足。该模型在基准测试中表现优异,超越了LLama3.1-70B,并与LLama3.1-405B相当,推动了模型开发的进展。