FactSelfCheck:针对大型语言模型的事实级黑箱幻觉检测

📝

内容提要

本研究解决了大型语言模型(LLMs)在生成内容时频繁出现幻觉的问题,尤其是在需确保事实准确性的应用场景中。我们提出了一种新颖的黑箱抽样方法FactSelfCheck,通过知识图谱以事实三元组的形式分析多次LLM响应的事实一致性,实现了细粒度的幻觉检测。实验结果表明,我们的方法在幻觉校正方面显著提高,事实内容提高了35%,相比之下,基于句子的SelfCheckGPT仅提升了8%。

🏷️

标签

➡️

继续阅读