当视觉大模型陷入认知失调,马里兰大学构建了一个幻觉自动生成框架

当视觉大模型陷入认知失调,马里兰大学构建了一个幻觉自动生成框架

💡 原文中文,约3500字,阅读约需9分钟。
📝

内容提要

AIxiv专栏促进学术交流,报道超过2000篇内容。马里兰大学研究团队提出AutoHallusion框架,自动生成视觉大模型的幻觉案例,以解决数据集不足的问题。实验结果显示,GPT-4V等模型在新基准数据集上的问答准确率最高为66%。该研究已发表于EMNLP 2024。

🎯

关键要点

  • AIxiv专栏促进学术交流,报道超过2000篇内容。
  • 马里兰大学研究团队提出AutoHallusion框架,自动生成视觉大模型的幻觉案例。
  • 实验结果显示,GPT-4V等模型在新基准数据集上的问答准确率最高为66%。
  • 研究团队的共同第一作者为吴曦旸和关天瑞,研究方向涵盖强化学习和计算机视觉。
  • AutoHallusion框架通过插入或删除特定物体来检测大模型的幻觉现象。
  • 该框架能够自动生成大量幻觉案例,缓解数据集不足的问题。
  • 研究表明,插入物体的幻觉生成策略比删除物体的策略更有效。
  • 基于物体存在性的问题更容易引发幻觉。
  • 真实世界数据集构建的幻觉案例成功率高于合成数据集。
  • 研究成果已发表于EMNLP 2024,论文标题为AUTOHALLUSION: Automatic Generation of Hallucination Benchmarks for Vision-Language Models。
➡️

继续阅读