提升多对多多语言机器翻译的方法与大型语言模型
原文中文,约400字,阅读约需1分钟。发表于: 。本文研究了机器翻译的训练模型,从学习具有广泛平行语料的神经机器翻译模型逐渐转变为在预训练的多语言大型语言模型上进行指导微调,并重点关注增强多对多多语言翻译性能和零 - shot 翻译方向的。我们证明了在指导微调过程中采用的提示策略对零 - shot 翻译性能至关重要,并引入了跨语言一致性正则化(CrossConST)的版本,即 XConST,以弥合不同语言之间的表示差距并提高零 -...
本文研究了机器翻译的训练模型,重点关注增强多对多多语言翻译性能和零-shot翻译方向。通过在预训练的多语言大型语言模型上进行微调,并采用提示策略和跨语言一致性正则化,提高了翻译性能。实验结果表明方法有效。