通过自我改进提升大语言模型归属能力
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
大型语言模型在自然语言处理中常用,但生成不可靠内容是个挑战。研究提出自动偏好优化(APO)框架,通过偏好学习减少错误信息。创建了6330个例子和95263对偏好数据。APO在多个数据集上提升了引文F1指标和回答质量。
🎯
关键要点
- 大型语言模型在自然语言处理中被广泛采用,但面临生成不可靠内容的挑战。
- 研究旨在通过引用作为证据减少错误信息和产生幻象。
- 当前引用方法主要集中在检索阶段和自动评估上,忽视了增强可信度的引用机制。
- 本文将归因任务建模为偏好学习,并引入自动偏好优化(APO)框架。
- 创建了一个经过训练的收集,包含6330个例子,并通过收集和过滤现有数据集。
- 提出了一种自动合成归因偏好数据的方法,得到了95263对偏好数据。
- 受人类引文过程的启发,提出了利用细粒度信息的渐进式偏好优化方法。
- 在ASQA、StrategyQA和ELI5三个数据集上,APO在引文F1指标上达到了最先进的水平,并且具有更高的回答质量。
➡️