本研究探讨了长上下文模型在多文档摘要中的效能,提出了一种结合检索增强系统与语言模型的混合方法,通过估算最佳检索长度来优化配置。实验结果表明,该方法在多文档摘要任务中表现优异。
本研究分析了多文档摘要模型在跨领域应用中的失败问题,评估了不同训练方法的模型表现,揭示了域转移失败的原因,并质疑了流行摘要指标的适用性。结果表明,模型在处理与训练领域不同的文档时,真实性、目标偏差和摘要质量显著下降。
本研究提出事件中心多文档摘要任务,解决动态事件信息分散于多个文档的问题,构建了包含5,100个事件和57,984篇新闻的EventSum数据集,强调了召回指标在摘要评估中的重要性。
本研究提出了一种新颖的框架,将抽取式和生成式摘要技术相结合,解决了越南语多文档摘要中的有效方法缺乏的问题。实验结果显示该框架在VN-MDS数据集上取得了39.6%的ROUGE-2评分,超越了现有的先进基线。
本研究探讨了Transformer模型在多文档摘要中的性能和行为表现,发现不同特征粒度和训练策略对模型影响较大,解码器对噪声敏感性高于编码器。实验结果还发现生成摘要中的重复问题与高不确定性得分相关。
使用内存高效的大型语言模型进行文本精炼有助于提高可阅读性。本文研究了一种用于多文档摘要的通用的可控方法,利用大型语言模型来提炼文本。该方法在评估和人工评估中取得了有竞争力的结果。
本文研究了一种用于多文档摘要的可控方法,利用大型语言模型提炼文本。方法采用覆盖和连贯性策略,并由大型语言模型奖励。在 ROUGE 指标评估中表现竞争力,并在连贯性方面超过基准。
本文介绍了一种用于多文档摘要的通用方法,利用大型语言模型提炼文本。该方案采用了新颖的策略,并由大型语言模型适当奖励。该方法在 ROUGE 指标评估中表现有竞争力,并在人工评估中胜过潜在的基准。
完成下面两步后,将自动完成登录并继续当前操作。