本研究提出了一种迭代双语理解翻译方法(IBUT),通过大型语言模型的跨语言能力生成反馈,逐步提升理解,减少错误,提高翻译质量。实验结果显示,IBUT在多个领域表现优于其他方法。
通过IC-XLT提高mT5模型的跨语言能力,超过基于提示的模型在零和少样本情景中的表现。当源语言数据有限时,IC-XLT的微调框架与基于提示的微调具有相当的性能。
本文提出了一种多级对比学习框架,使用翻译后的平行数据并整合每对平行句子的单词级信息进行对比学习,提高预训练模型的跨语言能力。采用交叉零噪声对比估计损失减轻训练过程中误差的影响。该方法提高了基础模型的跨语言迁移能力,在多个跨语言任务中表现优异。
完成下面两步后,将自动完成登录并继续当前操作。