SCALE:异构语言翻译引擎的协同合作
💡
原文中文,约700字,阅读约需2分钟。
📝
内容提要
SCALE是一个协作框架,将专用翻译模型和通用大型语言模型连接为一个统一的翻译引擎,减轻了语言偏见和平行数据偏见,增强了专业性,而不牺牲通用性。SCALE在低资源环境中表现优异,可以有效地利用LLMs的现有语言偏见,在八个翻译方向上优于少样本GPT-4的平均6个COMET分。同时,对SCALE的稳健性、翻译特性和延迟成本进行了深入分析。
🎯
关键要点
- SCALE是一个协作框架,将专用翻译模型和通用大型语言模型连接为一个统一的翻译引擎。
- SCALE减轻了语言偏见和平行数据偏见,增强了专业性而不牺牲通用性。
- 在低资源环境中,SCALE的翻译效果显著优于少样本LLMs(如GPT-4)和专门化模型(如NLLB)。
- 在Xhosa到英语的翻译中,SCALE通过一个仅包含600M参数的紧凑模型获得了BLEURT评分的稳定提高。
- SCALE在八个翻译方向上优于少样本GPT-4的平均6个COMET分。
- SCALE有效利用LLMs的现有语言偏见,通过以英语为中心的STM作为翻译枢纽。
- 对SCALE的稳健性、翻译特性和延迟成本进行了深入分析,为未来研究提供基础。
➡️