长文本生成中的不确定性表达
发表于: 。本研究解决了大规模语言模型在生成长文本时出现的事实错误(幻觉)问题,通过引入长文本生成与不确定性表达的任务(LoGU)。我们提出了一种基于精炼的数据收集框架和两阶段训练流程,显著提高了模型的准确性,减少了幻觉现象,同时保持了回答的完整性。
本研究解决了大规模语言模型在生成长文本时出现的事实错误(幻觉)问题,通过引入长文本生成与不确定性表达的任务(LoGU)。我们提出了一种基于精炼的数据收集框架和两阶段训练流程,显著提高了模型的准确性,减少了幻觉现象,同时保持了回答的完整性。