本研究探讨了双语语言模型中数据质量对性能的影响,发现数据质量不均是导致性能下降的主要原因。我们提出了一种数据过滤策略,选择高质量的双语训练数据,应用于法语、德语和中文,提升了单语性能2-4%,并将双语模型性能差距缩小至1%。这强调了多语言预训练中数据质量的重要性。
本文探讨了通过引入有限视觉信息来减少自监督语音模型在多语言环境中的性能差距。研究表明,视觉信息对单语和双语模型均有益,尤其是双语模型的表现显著提升,零样本音素区分的多语言性能差距从31.5%降至8.04%。
本研究提出了一种新方法,通过将阿拉伯语注入以英语为主的小型开源模型,成功训练出Kuwain 1.5B模型。该模型在阿拉伯语性能上平均提升8%,为双语模型训练提供了高性价比的解决方案。
本研究提出了一种高性价比的方法,解决双语大型语言模型在英语与其他语言间支持不足的问题。通过扩大词汇量和新嵌入初始化,显著提升了生成文本质量,促进了对低代表性语言的公平支持。
完成下面两步后,将自动完成登录并继续当前操作。