本研究提出一种基于稀疏专家混合(MoE)的微调方法,降低大语言模型微调成本。通过优化MoE层,提高单GPU的精度和性能,并估算云端微调成本,为行业和学术界提供预算支持。
完成下面两步后,将自动完成登录并继续当前操作。