基于图的长文本语言模型输出的不确定性度量
💡
原文中文,约2100字,阅读约需5分钟。
📝
内容提要
本研究提出了一种图形不确定性方法,旨在解决大型语言模型在长文本生成中的虚构和不确定性问题。通过二分图表示生成与声明的关系,结果显示该方法在多个任务上提高了6.8%的AUPRC,并在事实性方面改善了2-4%。
🎯
关键要点
- 本研究提出了一种图形不确定性方法,解决大型语言模型在长文本生成中的虚构和不确定性问题。
- 通过二分图表示生成与声明的关系,使用图中心性度量估计声明级的不确定性。
- 该方法在多个长文本生成任务上提高了6.8%的AUPRC,并在事实性方面改善了2-4%。
- 大型语言模型(LLMs)在文本生成能力上有显著提升,但仍存在虚构和不确定性的问题。
- 研究表明,基于图的不确定性度量在长文本生成任务中优于现有方法。
➡️