标签

 机器翻译 

相关的文章:

探索机器翻译领域的最新研究进展,包括混合编码文本机器翻译、多模态机器翻译、自适应同时机器翻译策略等。了解如何利用交互式预训练模型进行机器翻译,并应用于不同领域的案例研究。

利用大型语言模型进行低资源语言和高资源语言的机器翻译幻觉检测

原文约400字,阅读约需1分钟。发表于:

大型多语言机器翻译系统在提高翻译准确性方面取得了重要突破,但即使是最好的系统仍然会出现幻觉,严重影响用户的信任。使用大型语言模型和大规模多语言嵌入中的语义相似度来评估幻觉检测方法。对于高语料资源语言来说,Llama3-70B 的性能比之前的最新技术提高了 0.16 个 MCC(马修斯相关系数);然而,对于低资源语言,我们观察到 Claude Sonnet...

大型多语言机器翻译系统取得重要突破,使用大型语言模型和多语言嵌入评估幻觉检测方法。Llama3-70B在高语料资源语言上性能提高0.16个MCC,Claude Sonnet在低资源语言上相对其他模型提高0.03个MCC。大型语言模型在低资源语言方面优势较小。

相关推荐 去reddit讨论
相关推荐 去reddit讨论

走向零转换的多模态机器翻译

原文约300字,阅读约需1分钟。发表于:

当前的多模态机器翻译系统依赖于全监督数据,本文提出了一种称为 ZeroMMT 的方法来规避对全监督数据的需求,通过使用多模态的英文数据来训练机器翻译系统,我们通过评估标准的多模态机器翻译质量以及对多语言进行消歧,证明了该方法的泛化能力,并且我们可以通过无需附加数据的分类器自由指导控制消歧能力与翻译准确性的权衡。

本文介绍了ZeroMMT方法,用于训练多模态机器翻译系统,避免依赖全监督数据。通过评估多模态机器翻译质量和多语言消歧,证明了该方法的泛化能力。同时,通过无需附加数据的分类器,可以自由控制消歧能力和翻译准确性的权衡。

相关推荐 去reddit讨论

使用适配器的固定和自适应同时机器翻译策略

原文约200字,阅读约需1分钟。发表于:

通过引入轻量适配器模块,本文解决了构建一个能满足多个延迟水平的模型的挑战,并展示了与其他技术相比,适配器模块在保持延迟和质量选择性方面具有更大的灵活性,同时通过与自适应策略的结合进一步改善结果。

本文研究了同步文本翻译与同时语音翻译的结合方法,并引入预决定模块适应端到端的同时语音翻译。同时,对固定和灵活的预决策与策略的延迟质量权衡进行了详细分析。作者还提出了一种新的计算感知的延迟度量方法。

相关推荐 去reddit讨论

用多语言编码器和知识蒸馏增强低资源的神经机器翻译:一个案例研究

原文约300字,阅读约需1分钟。发表于:

基于预训练语言模型和知识蒸馏的 seq2seq 架构,用于辅助低资源语言的翻译,包括 mBART-50 不支持的印度次大陆语言。在三种印度低资源语言的四个印度语之间进行评估,与基准相比,蓝 - 4 和 chrF 显著提高,人工评估也证实了我们方法的有效性。

本文介绍了一种基于预训练语言模型和知识蒸馏的seq2seq架构,用于辅助低资源语言的翻译。通过评估三种印度低资源语言的四个印度语之间的翻译效果,结果显示蓝-4和chrF相比基准有显著提高,人工评估也证实了该方法的有效性。

相关推荐 去reddit讨论

基于分段的交互式预训练模型机器翻译

原文约300字,阅读约需1分钟。发表于:

预先训练的大型语言模型在交互式机器翻译环境中的使用,特别是使用 mBART 和 mT5 模型进行实验,并通过比较其与状态 - 最新技术模型在用户工作量、字数配比、按键配比和鼠标操作配比方面的性能,发现 mBART 在这一领域表现相当好,说明它是一个可行的选项。这一发现具有推动为交互环境开发新的机器翻译模型的潜在益处,并强调了将这些模型调整到特定需求的潜在好处。

通过比较mBART和mT5模型在交互式机器翻译环境中的性能,发现mBART表现出色,具有推动新模型开发的潜力。

相关推荐 去reddit讨论

状态空间模型在机器翻译中的有效性如何?

原文约900字,阅读约需2分钟。发表于:

通过严格细致的实验比较,本文发现 Mamba 与 transformers 在句子和段落级数据集上具有相当的竞争力,并且将注意力机制集成到 Mamba 中可以提高翻译质量、对序列长度外推的鲁棒性和对命名实体的记忆能力。

选择性状态空间模型(SSMs)如Mamba克服了Transformer的一些缺点,但在复制和上下文学习能力任务上落后。然而,Mamba-2-Hybrid在12个标准任务上超过了Transformer,生成推理标记速度最多快8倍。混合模型在额外的长期上下文任务中紧密匹配或超越了Transformer。

相关推荐 去reddit讨论

使用增量机器翻译系统评估自动评估衡量标准

原文约300字,阅读约需1分钟。发表于:

我们介绍了一个数据集,它包含了在 12 个翻译方向上,在六年时间内每周收集的商业机器翻译。我们假设商业系统会随着时间改进,这使我们能够评估基于对最近翻译的偏好的机器翻译度量标准。我们的研究确认了机器翻译度量研究中的几个之前的发现,并展示了该数据集作为度量评估的测试平台的价值。我们将我们的代码发布在此 https URL

该文章介绍了一个包含12个翻译方向的商业机器翻译数据集,收集了六年时间内每周的数据。研究确认了之前的机器翻译度量研究中的几个发现,并展示了该数据集作为度量评估测试平台的价值。

相关推荐 去reddit讨论

多任务学习下的上下文感知神经机器翻译案例分析

原文约300字,阅读约需1分钟。发表于:

探讨了使用多任务学习和多重编码器方法在文档级神经机器翻译中建模上下文编码的观察,证明了在资源匮乏的情况下,该方法比串联和多重编码器模型表现更好,并对选择上下文敏感。

本文研究了多编码器模型在不同上下文下对代词翻译的影响,并通过评估结果发现模型在 ContraPro 测试集上表现良好。分析显示上下文编码器提供足够的信息以学习话语层次的信息,同时将所选上下文和随机上下文进行混合通常比其他设置更好。

相关推荐 去reddit讨论

Translatotron-V (ison): 图像内机器翻译的端到端模型

原文约300字,阅读约需1分钟。发表于:

Translatotron-V (ision) 是一个端到端的图像机器翻译模型,通过四个模块实现,其中包括图像编码器、图像解码器、目标文本解码器和图像分词器,并采用两阶段训练框架以提高模型对多模态和多语言的对齐能力,同时引入结构化 BLEU 作为评估生成图像翻译质量的指标。实验证明,该模型在与级联模型参数仅占 70.9% 的情况下取得了有竞争力的性能,并且显著优于像素级端到端的图像机器翻译模型。

本文提出了一种新型的端对端文本图像翻译模型,利用OCR和MT数据集的知识,建立了一种新颖的模态适配器,通过端到端TIMT损失和跨模态对比损失对齐OCR和MT任务的特征分布。实验证明,该方法比现有的两阶段级联模型和一阶段端对端模型更轻、更快,且具有泛化性。

相关推荐 去reddit讨论