通过向量化上下文改进基于检索的开放领域问答
原文中文,约400字,阅读约需1分钟。发表于: 。在大语言模型的时代,应用检索增强生成等技术可以更好地解决开放领域问题回答问题。本文提出了一种通用方便的方法来覆盖更长的上下文,以在开放领域的问答任务中应用。我们的实验证明,在精调后,在两个保留数据集、四个留存数据集和两个上下文学习设置中,性能得到了提高。
研究发现,使用简单的检索增强可以在生成时实现与微调后的大型语言模型相当的性能,计算量较小。检索还可以显著提高大型语言模型的性能,不受扩展上下文窗口大小的限制。最佳模型在长上下文任务中表现优于其他模型,并且生成速度更快。这项研究为从业者提供了关于选择检索增强与扩展大型语言模型的长上下文的见解。