自我增强上下文学习用于无监督词语翻译
原文中文,约400字,阅读约需1分钟。发表于: 。最近的研究表明,尽管大型语言模型在少样本设置中展示了强大的词汇翻译或双语词典归纳能力,但在无监督场景中(特别是对于资源较少的语言),它们仍无法与 ' 传统 ' 的基于映射方法的性能相媲美。为了解决这一挑战,我们提出了自我增强的上下文学习(SAIL)用于无监督的双语词典归纳:从零样本提示开始,SAIL 迭代地通过从一个 LLM...
最近的研究发现,大型语言模型在无监督场景中无法与传统的基于映射方法相媲美。为了解决这一挑战,提出了自我增强的上下文学习(SAIL)用于无监督的双语词典归纳。SAIL在两个基准测试中优于LLMs的零样本提示,并且整体上优于基于映射的基准线。对SAIL进行了全面的分析,并讨论了其局限性。