HaluEval-Wild: 评估野外语言模型的幻觉

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本论文介绍了HalluQA基准,用于评估中文大型语言模型中的幻觉现象。通过对24个模型进行实验,作者发现18个模型的非幻觉率低于50%,表明HalluQA具有很高的挑战性。作者还分析了不同类型模型中的幻觉类型及其原因,并讨论了不同类型模型应优先考虑的幻觉类型。

🎯

关键要点

  • 建立了名为HalluQA的基准,用于衡量中文大型语言模型中的幻觉现象。
  • HalluQA包含450个精心设计的对抗性问题,涵盖多个领域,考虑了中国的历史文化、习俗和社会现象。
  • 构建HalluQA过程中考虑了模仿性虚假和事实错误两种类型的幻觉。
  • 使用GPT-4设计了一种自动评估方法来判断模型输出是否存在幻觉。
  • 对24个大型语言模型进行了实验,其中18个模型的非幻觉率低于50%。
  • HalluQA具有很高的挑战性。
  • 分析了不同类型模型中主要类型的幻觉及其原因。
  • 讨论了不同类型模型应优先考虑的幻觉类型。
➡️

继续阅读