美国手语到文本的翻译:基于Transformer和Seq2Seq的LSTM方法
原文中文,约400字,阅读约需1分钟。发表于: 。本研究针对美国手语翻译文本中的技术瓶颈,比较了Transformer模型与Seq2Seq模型的翻译效果,并探讨了在Transformer中引入残差长短期记忆(ResidualLSTM)的方案。研究结果表明,Transformer在蓝色分数(BLEU...
本研究比较了Transformer和Seq2Seq模型在美国手语翻译中的效果,结果显示Transformer模型在蓝色分数上优于Seq2Seq模型。引入ResidualLSTM反而降低了Transformer的性能,显示出Transformer与ResidualLSTM不兼容。