基于图的长文本语言模型输出的不确定性度量

💡 原文中文,约2100字,阅读约需5分钟。
📝

内容提要

本研究提出了一种图形不确定性方法,旨在解决大型语言模型在长文本生成中的虚构和不确定性问题。通过二分图表示生成与声明的关系,结果显示该方法在多个任务上提高了6.8%的AUPRC,并在事实性方面改善了2-4%。

🎯

关键要点

  • 本研究提出了一种图形不确定性方法,解决大型语言模型在长文本生成中的虚构和不确定性问题。
  • 通过二分图表示生成与声明的关系,使用图中心性度量估计声明级的不确定性。
  • 该方法在多个长文本生成任务上提高了6.8%的AUPRC,并在事实性方面改善了2-4%。
  • 大型语言模型(LLMs)在文本生成能力上有显著提升,但仍存在虚构和不确定性的问题。
  • 研究表明,基于图的不确定性度量在长文本生成任务中优于现有方法。
➡️

继续阅读