RAC:高效的大语言模型事实校正与检索增强
原文中文,约600字,阅读约需2分钟。发表于: 。本研究针对大型语言模型(LLMs)在生成事实时常出现不准确的问题,提出了一种低延迟的后期校正方法——检索增强校正(RAC)。该方法无需额外的微调,与任何指令调优的LLM兼容,并在事实性评估数据集上实现了高达30%的性能提升,验证了其有效性和稳健性。
大型语言模型在开放领域的事实查询中常出错。研究者用GPT-4生成了38000个问题的测试集,并提出SAFE方法,将长篇回复分解为单个事实进行多步推理评估。SAFE在16k个事实集上表现优于人类标注者,且成本更低。研究对十三个语言模型进行基准测试,发现较大模型表现更佳。相关资源和代码可在线获取。