标签

 机器翻译 

相关的文章:

了解机器翻译的最新研究进展和应用案例,包括神经机器翻译、多语言翻译、语言模型和注意力机制等。

创建领域特定翻译记忆以进行机器翻译

原文约500字,阅读约需2分钟。发表于:

本文探讨了如何通过翻译人员或其他语言专业人士创建翻译记忆(TM),以便编制领域特定的平行语料库,供机器翻译训练和微调等使用。提出了一种主要依赖翻译工具的半自动TM准备方法,旨在提高数据质量和翻译人员的控制能力。研究结果表明,该方法能够快速构建自定义TM,具有显著提高翻译效率的潜力。

通过研究多语言神经网络模型和迁移学习方法,研究人员在临床文本机器翻译方面取得了进展。实验结果显示,他们的模型在临床领域数据中表现出了最佳水平,并且小型预训练语言模型在临床领域微调中表现优异。迁移学习方法也取得了良好的效果。这些研究结果对于临床和医疗领域的机器翻译开发具有启示作用。未来可以进行更多的研究项目,以改进医疗文本分析和知识转化。

相关推荐 去reddit讨论

利用跨语言句子表示增强低资源机器翻译的数据选择方法

原文约300字,阅读约需1分钟。发表于:

本研究针对低资源语言对(特别是英语和马拉地语)的机器翻译中存在的平行语料稀缺和数据噪声问题,提出了一种基于跨语言句子表示的数据过滤方法。通过使用IndicSBERT相似性模型评估原句和翻译句之间的语义等价性,显著提升了翻译质量,为改善其他低资源语言的翻译任务提供了有价值的框架。

本文介绍了一种新的框架,用于改进低资源语言的跨语言词表示。该框架通过词对齐模型显式地对齐英语和八种低资源语言之间的单词。实验证明该方法在低资源语言的句子嵌入上取得了显著的改进,并在高资源语言上表现出竞争性。

相关推荐 去reddit讨论

面向文学机器翻译中词汇多样性的量身定制恢复

发表于:

本研究解决了机器翻译(MT)在文学翻译中造成的词汇多样性缺失问题,当前方法过于死板。我们提出了一种新颖的方法,通过分类器重新排序翻译候选项,辨别原文与译文,从而恢复机器翻译过程中失去的词汇多样性。研究结果表明,对于某些书籍,我们的方法能使词汇多样性得分接近人类翻译水平。

相关推荐 去reddit讨论

针对医疗领域机器翻译的指令调优大型语言模型

原文约400字,阅读约需1分钟。发表于:

本研究针对医疗领域机器翻译中的表现不足问题,通过引入专业医学术语对大型语言模型进行指令调优。研究发现,指令调优的模型在自动评估指标上明显优于基线模型,展现了在特定领域内提高术语一致性的潜力。

评估了四个最先进的面向指令的大型语言模型在临床和生物医学自然语言处理任务中的表现。结果显示,这些模型在零样本和少样本场景中表现出色,尤其在问答任务中。然而,在分类和关系抽取任务上的性能低于专门训练的医学模型。没有一个模型在所有任务中都胜过其他模型。

相关推荐 去reddit讨论

扩展FLORES+基准以适应更多低资源环境:葡萄牙语-埃马库瓦机器翻译评估

原文约200字,阅读约需1分钟。发表于:

本研究旨在解决低资源语言埃马库瓦的机器翻译评估问题。我们引入葡萄牙语到埃马库瓦的翻译集,并通过质量保证措施确保其可靠性。研究结果表明,埃马库瓦的拼写不一致性依然是挑战,并且现有模型在该评估集上的表现不佳,强调了改善机器翻译质量的必要性。

AfroMT是一个针对非洲8种使用广泛的机器翻译基准,提出了低资源预训练的可能性,并展示了数据受限情况下的改进结果。

相关推荐 去reddit讨论

多语言神经机器翻译模型中位置嵌入的可互换性

原文约200字,阅读约需1分钟。发表于:

本研究针对标准神经机器翻译模型在长距离依赖捕捉中的不足,提出了一种将绝对正弦位置嵌入高效切换为相对位置嵌入的新方法。研究表明,经过少量高质量数据的微调后,正弦位置嵌入可以有效替换为RoPE和ALiBi,且几乎没有性能损失,显示了该方法的潜在影响。

我们构建了一款通用的神经机器翻译系统,能够实现103种语言之间的翻译。该系统具有迁移学习能力,提高了低资源语言的翻译质量,并与高资源语言的翻译质量相当。同时,我们提供了多个模型构建分析,指出了未来研究的方向和需解决的问题。

相关推荐 去reddit讨论

IKUN在WMT24通用机器翻译任务中的应用:大型语言模型在多语言机器翻译中的崭露头角

原文约2300字,阅读约需6分钟。发表于:

本文解决了在WMT24的通用机器翻译任务中如何提高多语言翻译效果的问题。提出的IKUN和IKUN-C系统利用两阶段方法,分别基于不同的单语数据进行预训练与高质量平行数据微调,展现了大型语言模型在多语言机器翻译中的潜力。IKUN-C在约束系统中获得了显著的评价成绩,表明该研究对于提升多语言翻译的有效性具有重要影响。

本文介绍了IKUN和IKUN-C系统在WMT24通用机器翻译任务中的应用,通过预训练和微调的方法提高多语言翻译效果。IKUN-C在约束系统中表现出色,对多语言翻译的提升具有重要影响。

相关推荐 去reddit讨论

文本挖掘机器翻译的注意力机制与上下文建模系统

原文约400字,阅读约需1分钟。发表于:

本研究解决了传统Transformer模型在处理复杂语言结构时出现的上下文歧义和局部特征忽视的问题。通过将K-Means分类算法与Transformer模型结合,研究提出了一种新的架构方案,能够更高效地识别和保留语言的局部结构与上下文信息。实验证明,这种方法显著提升了机器翻译的质量,对文本主题或概念的发现具有重要影响。

该研究提出了一个模型,结合知识图谱和改进的注意机制,解决文本中的语义模糊问题。该模型在字符和词级别上运作,通过集成概念来加深对文本的理解。通过信息增益选择重要词,采用编码器-解码器框架对文本及相关概念进行编码。本地注意机制调整每个概念的权重,减少不相关或噪声概念的影响。改进了本地自注意机制中注意分数的计算公式,确保不同频率出现的词语获得更高的注意分数。最后,采用双向门控循环单元(Bi-GRU)从文本中提取特征以提高分类准确性。在多个数据集上展示了该模型在分类任务中的有效性。

相关推荐 去reddit讨论

情感条件下的神经机器翻译模型训练

原文约300字,阅读约需1分钟。发表于:

该研究提出了一种新的机器翻译管道,将从情绪识别模型中提取的情绪信息整合到大型语言模型中,以提高翻译质量。研究发现,特别是情绪中的唤起度,整合到语言模型的提示中会显著改善翻译质量。

本文探讨了将情感和伦理考虑整合到大型语言模型中的方法,通过协作式模型对人类情感进行建模,并通过自我监督学习算法嵌入伦理维度。该方法使语言模型能够符合伦理准则,并提高生成内容的情感共鸣和伦理一致性。该研究展示了语言模型在共情互动和有原则决策领域的潜力,并在AI系统发展中树立了新的范例。

相关推荐 去reddit讨论
相关推荐 去reddit讨论