快速训练带有数据排序的 NMT 模型
原文中文,约200字,阅读约需1分钟。发表于: 。提出了一种基于长度排序的算法,用于降低 Transformer 模型计算空标记的计算负担,以提高机器翻译的计算速度和性能。
本文使用Tensor2Tensor框架和Transformer模型进行神经机器翻译实验,比较了关键参数对翻译质量、内存使用、训练稳定性和时间的影响,并给出了改进建议。
提出了一种基于长度排序的算法,用于降低 Transformer 模型计算空标记的计算负担,以提高机器翻译的计算速度和性能。
本文使用Tensor2Tensor框架和Transformer模型进行神经机器翻译实验,比较了关键参数对翻译质量、内存使用、训练稳定性和时间的影响,并给出了改进建议。