MultiSlav:利用跨语言知识转移应对多语言的诅咒

📝

内容提要

本研究解决了多语言神经机器翻译(NMT)在低资源语言翻译中的性能问题,采用跨语言知识转移进行数据扩展。我们证明了在零样本翻译的背景下也能获得跨语言的收益,并发布了支持多种斯拉夫语言的最新开源NMT模型,对斯拉夫语言翻译的研究贡献显著。

🏷️

标签

➡️

继续阅读