通过自我改进提升大语言模型归属能力

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

大型语言模型在自然语言处理中常用,但生成不可靠内容是个挑战。研究提出自动偏好优化(APO)框架,通过偏好学习减少错误信息。创建了6330个例子和95263对偏好数据。APO在多个数据集上提升了引文F1指标和回答质量。

🎯

关键要点

  • 大型语言模型在自然语言处理中被广泛采用,但面临生成不可靠内容的挑战。
  • 研究旨在通过引用作为证据减少错误信息和产生幻象。
  • 当前引用方法主要集中在检索阶段和自动评估上,忽视了增强可信度的引用机制。
  • 本文将归因任务建模为偏好学习,并引入自动偏好优化(APO)框架。
  • 创建了一个经过训练的收集,包含6330个例子,并通过收集和过滤现有数据集。
  • 提出了一种自动合成归因偏好数据的方法,得到了95263对偏好数据。
  • 受人类引文过程的启发,提出了利用细粒度信息的渐进式偏好优化方法。
  • 在ASQA、StrategyQA和ELI5三个数据集上,APO在引文F1指标上达到了最先进的水平,并且具有更高的回答质量。
➡️

继续阅读