标签

 机器翻译 

相关的文章:

本列表汇集了最新的机器翻译研究成果,涵盖神经网络模型、低资源语言翻译及多语言系统的评估方法,展示了该领域的前沿技术与应用。

机器翻译中的情境线索:研究多源输入策略在大型语言模型和神经机器翻译系统中的潜力

本研究解决了机器翻译质量提升的关键问题,探讨了多源输入策略的影响。我们提出通过中介语言翻译作为情境线索,显著提升英中翻译到葡萄牙语的质量,尤其在特定领域数据集和语言距离较大的情况下。最重要的发现是,战略性选择情境语言能够显著提高翻译效果,特别是在高资源语言为其他翻译对提供背景时。

本研究探讨了多源输入策略对机器翻译质量的影响,发现通过中介语言翻译可以显著提高英中翻葡萄牙语的质量,尤其在特定领域和语言距离较大时。选择合适的情境语言能有效改善翻译效果。

原文中文,约600字,阅读约需2分钟。发表于:
阅读原文

超越仅解码器:大型语言模型可以作为机器翻译的优秀编码器

本研究解决了神经机器翻译(NMT)中编码器-解码器架构关注不足的问题。通过将大型语言模型(LLMs)应用于NMT编码并优化其与解码器的兼容性,提出了一种新的翻译模型。这项工作的重要发现是,所提方法在翻译质量上达到了或超过了多个基准,同时实现了高达$2.4 \sim 6.5$倍的推理速度提升和$75\%$的内存占用减少。

发表于:
阅读原文

组合翻译:一种针对低资源机器翻译的新型基于大型语言模型的方法

本研究解决了在低资源环境下机器翻译中翻译准确性的问题,提出了一种新的基于大型语言模型的组合翻译方法。该方法通过将句子分解为简化短语,并用相似的示例进行翻译,显著提高了翻译性能,特别是在翻译资源有限的情况下。研究结果显示,组合翻译在多个MT基准测试中有效提升了LLM翻译性能。

发表于:
阅读原文

[译][论文] Attention paper | 神经机器翻译:联合学习对齐和翻译(2014)

译者序 本文翻译自 2014 年提出 Attention 机制的论文 Neural Machine Translation by Jointly Learning to Align and Translate。 Attention...

本文介绍了2014年提出的神经机器翻译中的注意力机制,该机制通过联合学习对齐和翻译,使模型在生成每个目标词时动态选择相关源词信息,从而克服传统固定长度向量的局限性,提升长句翻译性能。

原文中文,约12000字,阅读约需29分钟。发表于:
阅读原文
发表于:
阅读原文

高效机器翻译语料库生成:结合人工后编辑与大型语言模型

本研究解决了机器翻译语料库生成效率和质量不足的问题,提出了一种将人机协作后编辑与大型语言模型结合的新方法。该方法通过引入增强翻译合成和辅助注释分析等新特性,显著提高了翻译假设和质量评估的准确性,同时降低了人类注释员的工作负担,为机器翻译领域开辟了新的发展方向。

本研究提出了一种新方法,将人机协作后编辑与大型语言模型结合,显著提升机器翻译语料库的生成效率和质量,减轻人类注释员的负担。

原文中文,约400字,阅读约需1分钟。发表于:
阅读原文

理解低资源语言的上下文机器翻译:满语案例研究

本研究针对低资源机器翻译中的资源利用问题展开,重点分析字典、语法书及平行示例在翻译性能中的相对重要性。研究发现,高质量的字典和优秀的平行示例对翻译效果尤为重要,而语法书的帮助有限。此外,提出的基于上下文机器翻译的平行数据增强方法,为缓解数据稀缺问题提供了新路径,帮助构建高效的低资源神经机器翻译系统。

本研究探讨了低资源机器翻译中的资源利用,发现高质量字典和平行示例对翻译效果至关重要,而语法书的帮助有限。提出的基于上下文的平行数据增强方法为解决数据稀缺问题提供了新思路。

原文中文,约300字,阅读约需1分钟。发表于:
阅读原文

基于枢轴翻译的神经机器翻译单模型集成框架

该研究解决了低资源语言对的神经机器翻译性能欠佳的问题,提出了一种基于枢轴翻译的单模型集成方法。通过枢轴语言的知识转移,该方法能够生成多样且准确的候选翻译,并通过选择高质量候选进行后续聚合,显著提升翻译质量。实验结果表明,该方法有效捕捉源句的微妙差异,从而提供了更优质的翻译结果。

该研究提出了一种基于枢轴翻译的单模型集成方法,旨在解决低资源语言对的神经机器翻译问题。通过知识转移,该方法生成多样且准确的翻译候选,显著提高了翻译质量。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文
发表于:
阅读原文

大型语言模型评估中的高估:关于数据污染对机器翻译影响的受控大规模研究

本研究解决了数据污染对语言模型评估基准有效性所造成的影响。通过系统地分析在不同阶段和规模下的数据污染对机器翻译任务性能指标的影响,发现数据污染导致的BLEU分数膨胀在8B模型中比1B模型高出2.5倍(最多可达30个BLEU点)。这一发现为评估语言模型的可靠性提供了重要的见解。

发表于:
阅读原文