LLM-QE:通过对齐大型语言模型与排名偏好来改善查询扩展
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了一种新方法LLM-QE,利用大型语言模型进行查询扩展,以提升密集检索模型的性能。实验结果表明,LLM-QE在Contriever模型上性能提升超过8%,并通过答案奖励模型生成更相关的信息,训练效果提升超过5%。
🎯
关键要点
- 本研究提出了一种新方法LLM-QE,利用大型语言模型进行查询扩展。
- LLM-QE旨在提升密集检索模型的性能。
- 实验结果显示,LLM-QE在Contriever模型上性能提升超过8%。
- 通过答案奖励模型,LLM-QE生成更相关的信息。
- 训练效果提升超过5%。
➡️