本研究探讨了XLM-R预训练模型在英语到日语和印尼语的跨语言迁移学习中的应用。结果表明,该模型在日语数据集上表现最佳,其他数据集也有良好效果,验证了多语言模型的有效性。
该文章介绍了一种新的零-shot跨语言迁移学习方法,通过限制解码进行标签映射,提高了NLP任务的性能。作者在两个跨语言迁移任务上评估了该方法,结果显示其优于现有方法。
该论文介绍了一种通过语义知识蒸馏来改进多语言语音转文本翻译中的跨语言迁移学习的方法。使用 SAMU-XLS-R 初始化编码器,在 CoVoST-2 和 Europarl 语音转文本数据集上实现了比基线模型更好的交叉语言任务知识传输,提高了12.8个BLEU分数。在零-shot翻译情景下,平均提高了18.8分和11.9个BLEU分数。
完成下面两步后,将自动完成登录并继续当前操作。