本研究提出了一种新方法LLM-QE,利用大型语言模型进行查询扩展,以提升密集检索模型的性能。实验结果表明,LLM-QE在Contriever模型上性能提升超过8%,并通过答案奖励模型生成更相关的信息,训练效果提升超过5%。
完成下面两步后,将自动完成登录并继续当前操作。