该研究基于稀疏专家混合(SMoE)语言模型的 Mixtral,提出了 Chinese-Mixtral 和 Chinese-Mixtral-Instruct,通过预训练和微调改进了中文语言能力,保留了英语能力。研究讨论了语言适应的关键问题,并提供了实证结果和分析。研究资源在 https://github.com/ymcui/Chinese-Mixtral 公开提供。
完成下面两步后,将自动完成登录并继续当前操作。