基于图的长文本语言模型输出的不确定性度量
原文中文,约2100字,阅读约需5分钟。发表于: 。本研究解决了大型语言模型(LLMs)在长文本生成中过度虚构和不确定性估计困难的问题。我们提出了一种图形不确定性方法,通过二分图表示LLM生成与内部声明之间的关系,并使用图中心性度量估计声明级的不确定性。结果表明,基于图的不确定性度量在多个长文本生成任务上较现有方法平均提高了6.8%的AUPRC,并在事实性方面提供了2-4%的显著改善。
本研究提出了一种图形不确定性方法,旨在解决大型语言模型在长文本生成中的虚构和不确定性问题。通过二分图表示生成与声明的关系,结果显示该方法在多个任务上提高了6.8%的AUPRC,并在事实性方面改善了2-4%。