SCALE:异构语言翻译引擎的协同合作

💡 原文中文,约700字,阅读约需2分钟。
📝

内容提要

SCALE是一个协作框架,将专用翻译模型和通用大型语言模型连接为一个统一的翻译引擎,减轻了语言偏见和平行数据偏见,增强了专业性,而不牺牲通用性。SCALE在低资源环境中表现优异,可以有效地利用LLMs的现有语言偏见,在八个翻译方向上优于少样本GPT-4的平均6个COMET分。同时,对SCALE的稳健性、翻译特性和延迟成本进行了深入分析。

🎯

关键要点

  • SCALE是一个协作框架,将专用翻译模型和通用大型语言模型连接为一个统一的翻译引擎。
  • SCALE减轻了语言偏见和平行数据偏见,增强了专业性而不牺牲通用性。
  • 在低资源环境中,SCALE的翻译效果显著优于少样本LLMs(如GPT-4)和专门化模型(如NLLB)。
  • 在Xhosa到英语的翻译中,SCALE通过一个仅包含600M参数的紧凑模型获得了BLEURT评分的稳定提高。
  • SCALE在八个翻译方向上优于少样本GPT-4的平均6个COMET分。
  • SCALE有效利用LLMs的现有语言偏见,通过以英语为中心的STM作为翻译枢纽。
  • 对SCALE的稳健性、翻译特性和延迟成本进行了深入分析,为未来研究提供基础。
➡️

继续阅读