面向英日商务场景对话的上下文感知神经机器翻译
原文中文,约400字,阅读约需1分钟。发表于: 。通过研究上下文感知如何改善当前神经机器翻译模型在英日商务对话翻译中的表现,并探索哪种上下文对于提升翻译质量提供有意义的信息,本文使用事先训练的 mBART 模型在多句对话数据上进行微调,研究了更大上下文范围的影响,并提出了编码额外片段信息(如发言人和场景类型)的新型上下文标记,实验结果发现模型利用前几个句子和额外片段的上下文(随着上下文范围的增加,CXMI...
本文研究了上下文对神经机器翻译模型在英日商务对话翻译中的影响。通过使用mBART模型在多句对话数据上进行微调,发现模型利用前几个句子和额外片段的上下文以及对敬语翻译进行了更专注的分析。实验结果表明,增加源语言上下文信息和场景、发言人信息有助于提高模型性能。