本研究提出了BLOOMZMMS,利用多语言语言模型和语音编码器,为语音识别和其他领域的大型语言模型应用提供了新的方法。实验证明,该方法在多种任务上具有强大的鲁棒性。
本研究结合知识蒸馏和专家混合模型开发了高效的多语言语言模型,结果表明两种知识蒸馏方法性能相似,自适应α方法略微改善。模块化专家混合模型架构评估表明预训练语言专家和联合专家嵌入训练性能相似,引入公共专家可以改善模型性能。灾难性遗忘研究表明顺序训练导致显著遗忘,而单次训练和专家混合模型方法可以减轻此问题。本研究提供了开源资源。
研究发现多语言语言模型存在多语言人类价值观念,跨语言分析揭示了语言资源差异引起的三个特征,验证了使用主导语言控制多语言模型的可行性。建议在跨语言对齐传递时包含有限数量的主导语言,保持非主导语言的平衡分布。希望能为增强多语言人工智能的安全性和实用性做出贡献。
研究发现多语言语言模型存在多语言人类价值观念,跨语言分析揭示了语言资源差异引起的特征,验证了使用主导语言调整多语言语言模型的可行性。建议在跨语言对齐传递时包含有限数量的主导语言,保持非主导语言的平衡分布。研究为增强多语言人工智能的安全性和实用性做出贡献。
本文研究了零资源环境中的词性标注方法,适用于资源匮乏的语言。通过预训练的多语言语言模型或源语言标签映射到目标语言并训练序列标注模型,可以有效进行词性标注。研究结果表明,在零资源语言中进行映射对于预测词性标签是有益的。
最近的研究发现,在多语言语言模型中引入语言模块化可以通过使用稀疏微调的语言子网络来更好地引导跨语言共享。稀疏微调可能减少子网络的语言专门化,更倾向于进行跨语言共享。
本文提出了一个新的跨语言生物医学实体链接任务,并建立了一个涵盖10种语言的基准测试。研究了标准、知识增强的单语和多语言语言模型在标准英语生物医学实体链接任务之外的能力,并解决了把资源丰富的语言中的领域特定知识传递给资源贫乏的语言的挑战。提出并评估了一系列的跨语言传递方法。研究表明,本文提出的领域特定传递方法在所有目标语言中均获得了持续的提高,有时可高达20个Precision@1点,而无需目标语言具有领域内的知识和对应的并行数据。
完成下面两步后,将自动完成登录并继续当前操作。