本研究提出了StepSearch框架,旨在解决大型语言模型在复杂多跳问答中的知识获取问题。通过逐步近端策略优化,该框架显著优于传统方法,验证了细粒度监督的有效性。
本文提出了一种新的模块化问答框架FocusedRetriever,利用半结构化知识库进行多跳问答。研究表明,该框架在STaRK基准测试中的首次命中率比第二名高出25.7%,有效提升了知识访问和利用策略。
本研究提出了计划-执行-审查(PAR RAG)框架,以解决多跳问答中的推理路径偏差和结果错误传播问题,显著提升了准确性和可靠性,实验结果优于现有方法。
本研究提出Collab-RAG框架,旨在提高多跳问答任务中检索增强生成系统的准确性。通过小型白盒语言模型与大型黑盒语言模型的协作,实验结果表明其在复杂问题推理和检索方面表现优异。
本研究提出ReaRAG模型,旨在提高大规模推理模型的事实准确性。该模型通过构建新数据框架和限制推理链长度,有效整合推理与检索功能,显著提升多跳问答任务的表现。
本研究提出ReAgent框架,解决多跳问答中的推理错误累积问题。通过回溯机制和信息聚合,该系统有效检测并纠正推理错误,性能提升约6%。
微软与中国人民大学合作推出CoRAG框架,改进了传统检索增强生成模型。CoRAG通过动态查询重构,实现了迭代检索和推理,克服了信息整合不足的问题,特别在多跳问答任务中表现优异,提升了检索的智能性和动态性。
本研究提出了一种“审查-再润色”框架,优化多跳问答中的时间信息处理,显著提升大语言模型的性能。
本研究探讨了大型语言模型在多跳问答中对外部知识的偏好,提出了证据链的概念,强调知识点之间需相互支持。研究表明,证据链能提高生成的准确性和答案的可信度。
本研究提出了一种新方法,针对多模态多跳问答中的冗余信息和缺乏可解释推理的问题,结合逻辑蕴涵树与问答,设计了多任务学习框架,通过迭代反馈提升模型性能,在WebQA领域获得第一名。
本研究提出了GMeLLo方法,利用知识图谱和语言模型解决多跳问题,显著提升了多跳问答性能。
本研究提出了Iter-RetGen方法,通过检索和生成的迭代协同作用,全面处理检索到的知识,实现灵活生成,可在多跳问答、事实验证和常识推理等任务中达到优于现有基准的效果,同时减少开销,提高性能。
完成下面两步后,将自动完成登录并继续当前操作。