语言模型与循环一致性用于自反机器翻译
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对机器翻译中的翻译质量评估问题,提出了一种新框架,利用大型语言模型(LLMs)生成多个翻译候选,并通过反向翻译检查原句与翻译句之间的循环一致性,从而隐性地评估目标语言中的翻译质量。实验结果表明,较大的LLM或在推理过程中进行更多前向传递时,循环一致性增强,这表明模型规模与计算量增强的规律性。这项工作为隐性评估翻译质量、评估LLM的翻译能力及提升特定LLM的翻译质量提供了新方法。
本研究提出了一种新框架,通过大型语言模型生成多个翻译候选,并利用反向翻译评估翻译质量。实验结果表明,模型规模与计算量的增加呈规律性,为隐性评估翻译质量提供了新方法。