本文研究了上下文对神经机器翻译模型在英日商务对话翻译中的影响。通过使用mBART模型在多句对话数据上进行微调,发现模型利用前几个句子和额外片段的上下文以及对敬语翻译进行了更专注的分析。实验结果表明,增加源语言上下文信息和场景、发言人信息有助于提高模型性能。
完成下面两步后,将自动完成登录并继续当前操作。