NVIDIA与Mistral AI合作加速新一代开放模型的推出
NVIDIA Blog
·
MoMoE:内存优化的专家混合模型
Nathan Chen
·
NEXA-MOE:一种高效强大的AI,用于在资源紧张的情况下进行科学发现
DEV Community
·
EC-DIT:通过自适应专家选择路由扩展扩散变换器
Apple Machine Learning Research
·
通过全局负载均衡提升混合专家模型的性能和特异化程度
Blog on Qwen
·