Mergen:蒙古族 - 朝鲜族机器翻译模型的首次训练结果
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
通过研究不同方法改进低资源和古老语言机器翻译,开发了一种基于语言相关性的多语言神经机器翻译模型,平均性能提高了约4个BLEU。尝试使用NLLB-200和GPT-3.5模型进行微调和少量样本翻译,但性能较差。研究为低资源和古老语言机器翻译的方法提供了一些见解。
🎯
关键要点
- 研究不同方法改进低资源和古老语言机器翻译。
- 开发了一种基于语言相关性的多语言神经机器翻译模型,平均性能提高约4个BLEU。
- 尝试使用NLLB-200模型进行微调,但性能较差,仅有4k个Ge'ez训练样本。
- 使用GPT-3.5进行少量样本翻译,取得9.2 BLEU分数,但低于15.2的多语言神经机器翻译基准。
- 研究为低资源和古老语言机器翻译的方法提供了一些见解。
➡️