提升多对多多语言机器翻译的方法与大型语言模型
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文研究了机器翻译的训练模型,重点关注增强多对多多语言翻译性能和零-shot翻译方向。通过在预训练的多语言大型语言模型上进行微调,并采用提示策略和跨语言一致性正则化,提高了翻译性能。实验结果表明方法有效。
🎯
关键要点
- 本文研究机器翻译的训练模型,重点在多对多多语言翻译和零-shot翻译。
- 逐渐从使用广泛平行语料的神经机器翻译模型转向在预训练的多语言大型语言模型上进行微调。
- 提示策略在指导微调过程中对零-shot翻译性能至关重要。
- 引入跨语言一致性正则化(XConST)以提高零-shot翻译性能。
- 实验结果表明,所提出的方法有效改善了翻译性能。
➡️