通过基础归属和拒绝学习来测量和提升RAG中大型语言模型的可信度
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对检索增强生成(RAG)系统中大型语言模型(LLMs)的适用性缺乏研究的空白,提出了一种新的指标“信任评分”,以全面评估LLMs的可信度。文章提出的“信任对齐”框架能有效提升LLMs的信任评分,经过对比,使用该方法对齐的LLaMA-3-8b在多个任务上显著超越同类开源模型。
该研究提出了一种利用检索增强生成(RAG)改进大规模语言模型(LLMs)的系统设计,用于处理私人知识库相关的领域特定和时间敏感查询。研究结果揭示了使用规模较小和偏斜的数据集进行微调LLM的限制,同时突出了RAG系统在知识密集型任务中增强LLMs表现的潜力。