中间发现:排列自一致性提升大型语言模型的列表排名
原文中文,约400字,阅读约需1分钟。发表于: 。大型语言模型 (LLMs) 在使用上下文方面存在位置偏倚,尤其是在列表排序方面。为解决这个问题,我们提出了置换自一致性,这是一种对黑盒 LLMs 的排序列表输出的自一致性形式。我们的关键思想是通过将提示中的不同列表顺序边际化来产生一个无序偏倚更少的排序。我们在排序和段落重新排序的五个列表排序数据集上进行了实证实验,我们的方法在 GPT-3.5 上相比传统推理提高了 7-18%,在...
该文介绍了一种解决大型语言模型在列表排序方面存在位置偏差的方法,即置换自一致性。实验结果表明,该方法在五个列表排序数据集上相比传统推理提高了7-18%,在LLaMA v2 (70B)上提高了8-16%。