基于大语言模型知识问答应用落地实践 – 知识召回调优(下)
原文中文,约7100字,阅读约需17分钟。发表于: 。本文是本系列的第四篇,对 RAG 场景中的知识召回展开介绍,基于一些实践总结了向量召回问题分析和优化的经验。
本文介绍了向量召回的最佳实践,包括对称召回和非对称召回的比较、知识增强、模型演进和选型、向量模型Finetune、召回Rerank以及多路融合的工程实践。微调可以提高Recall@N的准确率,Rerank可以结合倒排和向量召回的结果。LangChain框架可以简化LLM应用开发和多种LLM模型的集成流程。建议同时考虑QQ和QD召回,用QQ和QD语料对向量模型进行Finetune。多路召回对提升知识问答的覆盖能力有正向帮助。