通过标记消除优化检索增强阅读模型

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

该研究提出了一种面向知识密集型任务的检索增强式生成模型的多任务训练方法,实验结果表明该方法在 KILT 基准测试中取得了显著的改进,并在 KILT 任务的五项中取得了最佳结果。

🎯

关键要点

  • 该研究提出了一种面向知识密集型任务的检索增强式生成模型的多任务训练方法。
  • 通过利用查询 - 答案对与知识库中项目的联系,提出了一种清理训练集的方法。
  • 使用关联性标签的置信度阈值过滤训练样本,以确定是否可以通过知识库回答查询 - 答案对。
  • 在 KILT 基准测试的七个组合任务上对单个 FiD 生成器进行训练。
  • 实验结果表明,该方法在两个强烈不平衡的任务上大幅改进了竞争基线。
  • 在其余任务上显示出较小的改进或无显著退步。
  • 与增加的模型容量相比,关联标签采样的多任务训练能够良好地缩放。
  • 在 KILT 任务的五项中取得了最佳结果。
➡️

继续阅读