本研究探讨了视觉模型对多模态机器翻译的影响,使用了强大的模型和增强功能进行实验,并开发了选择性注意力模型来研究图像在多模态机器翻译中的贡献。研究结果表明,强大的视觉模型有助于学习从视觉模态进行翻译,建议在当前基准测试规模小且有偏差时,需要仔细研究多模态机器翻译模型。
本文介绍了LIUM和CVC为WMT16多模态机器翻译挑战开发的系统,使用了单模态和多模态数据,探索了不同的比较方法,包括基于短语的系统和使用单模态或多模态数据训练的注意力循环神经网络模型。他们进行了人类评估,评估了多模态数据在人机翻译和图像描述生成中的实用性。根据自动评估指标BLEU和METEOR,他们的系统在这两个任务中取得了最佳结果。
完成下面两步后,将自动完成登录并继续当前操作。