超越偏见的推理:关于反事实提示和思维链推理的研究
发表于: 。本研究探讨了语言模型训练数据中的偏见对选择答案偏好的影响,特别是在大规模多任务语言理解(MMLU)任务中的体现。我们提出的两种新方法——反事实提示结合思维链(CoT)和反事实提示结合无偏激活的思维链(APriCoT),有效减少了基准概率的影响,并显著提高了模型的整体准确性,推动了更公平强大的语言模型的发展。
本研究探讨了语言模型训练数据中的偏见对选择答案偏好的影响,特别是在大规模多任务语言理解(MMLU)任务中的体现。我们提出的两种新方法——反事实提示结合思维链(CoT)和反事实提示结合无偏激活的思维链(APriCoT),有效减少了基准概率的影响,并显著提高了模型的整体准确性,推动了更公平强大的语言模型的发展。