增强基于大语言模型的翻译时,偏好对齐是否总是最佳选择?实证分析
原文中文,约400字,阅读约需1分钟。发表于: 。本文探讨在机器翻译中,通过偏好对齐技术(CPO)提升翻译质量的有效性,解决了偏好对齐方法可能导致的评估不稳定性问题。研究发现,虽然CPO在高质量数据中优于监督微调(SFT),但在不同评估指标之间的稳定性存在挑战,同时仅依赖基础模型生成的候选翻译在一致性和性能上表现良好。
神经机器翻译面临领域不匹配、平行数据不足、罕见词预测、长句翻译、词对齐和束搜索六大挑战。高级大型语言模型在预训练阶段减少了对平行数据的依赖,提升了长句翻译能力,但领域不匹配和罕见词预测仍是难题。此外,LLMs在翻译中还面临推理效率、低资源语言翻译和人对齐评估的新挑战。