相对为上!-- 一种用于提升零样本相关性预测的合成查询生成方法
原文中文,约400字,阅读约需1分钟。发表于: 。最近大型语言模型(LLMs)的发展表明,通过仅给出少量示例,可以生成合成的查询 - 文档对,从而为建立更好的信息检索模型提供支持,特别是对于没有可用训练数据的任务。本文提出通过同时为不同标签生成查询来减轻 LLMs 的负担,通过大量实验发现,以这种方式生成的合成查询在下游任务中表现更好,说明生成的查询确实具有更高的质量。
本研究使用大型语言模型作为无样本关系抽取器,提出了一种名为SumAsk的简单提示方法。通过实验发现,SumAsk方法能显著提高大型语言模型的性能,在提取重叠关系方面表现良好。然而,不同关系之间性能差异较大,大型语言模型在处理无适用项关系时有效。