颜水成袁粒提出新一代MoE架构:专家吞吐速度最高提升2.1倍!
💡
原文中文,约3800字,阅读约需9分钟。
📝
内容提要
颜水成和袁粒团队提出了新架构MoE++,通过引入“零计算量专家”提升性能和速度。MoE++允许每个Token使用不同数量的FFN专家,降低计算成本,提高复杂Token处理能力。实验表明,MoE++在相同模型大小下性能优于传统MoE,专家吞吐速度提升1.1到2.1倍。模型权重已开源,展示了不同任务中的专家负载分布差异。
🎯
关键要点
-
MoE++架构由颜水成和袁粒团队提出,性能和速度显著提升。
-
引入“零计算量专家”,降低计算成本,提高复杂Token处理能力。
-
MoE++允许每个Token使用可变数量的FFN专家,甚至可以跳过MoE层。
-
实验结果显示,MoE++在相同模型大小下性能优于传统MoE,专家吞吐速度提升1.1到2.1倍。
-
MoE++引入三种零计算量专家:Zero专家、Copy专家和Constant专家。
-
灵活的计算量分配优化了计算资源,使更多FFN专家专注于复杂Token。
-
稳定的路由设计通过前一层的路由分数提升了专家选择的稳定性。
-
MoE++具有更低的理论计算复杂度,实验结果表明其优于普通MoE。
-
专家负载分布在不同任务中存在显著差异,Zero专家在简单任务中激活次数更高。
-
MoE++模型的权重已开源,展示了不同任务中的专家负载分布差异。
➡️