可控多文档摘要:基于大型语言模型奖励的覆盖和连贯直观策略
原文中文,约300字,阅读约需1分钟。发表于: 。使用内存高效的大型语言模型进行文本精炼有助于提高可阅读性,而在长文本输入的文本生成任务中,如多文档摘要,控制性是一个需要关注的问题。本文研究了一种用于多文档摘要的通用的可控方法,利用大型语言模型来提炼文本。具体来说,我们训练了一个可控的内容提取方案,用于提取需要由大型语言模型提炼的文本。该方案采用了一种新颖的覆盖和连贯性直观策略,并由一个被动训练的大型语言模型适当地奖励。我们的方法在使用...
本文介绍了一种用于多文档摘要的通用方法,利用大型语言模型提炼文本。该方案采用了新颖的策略,并由大型语言模型适当奖励。该方法在 ROUGE 指标评估中表现有竞争力,并在人工评估中胜过潜在的基准。