LLM-QE:通过对齐大型语言模型与排名偏好来改善查询扩展

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出了一种新方法LLM-QE,利用大型语言模型进行查询扩展,以提升密集检索模型的性能。实验结果表明,LLM-QE在Contriever模型上性能提升超过8%,并通过答案奖励模型生成更相关的信息,训练效果提升超过5%。

🎯

关键要点

  • 本研究提出了一种新方法LLM-QE,利用大型语言模型进行查询扩展。
  • LLM-QE旨在提升密集检索模型的性能。
  • 实验结果显示,LLM-QE在Contriever模型上性能提升超过8%。
  • 通过答案奖励模型,LLM-QE生成更相关的信息。
  • 训练效果提升超过5%。
➡️

继续阅读