Fixing Imbalanced Attention to Mitigate In-Context Hallucination in Large Vision-Language Models
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究分析了大型视觉语言模型(LVLMs)中的幻觉现象,提出了一种新的注意力修改方法,结合选择性标记和头部特异性调节,以减少生成与输入图像不符的描述。实验结果表明,该方法能将幻觉率降低62.3%,同时保持任务表现。
🎯
关键要点
- 大型视觉语言模型(LVLMs)在理解和描述视觉内容方面表现出色,但常常出现幻觉现象。
- 幻觉现象指的是生成与输入图像不符的描述,导致模型输出错误的信息。
- 研究提出了一种新的注意力修改方法,结合选择性标记和头部特异性调节,以减少幻觉现象。
- 实验结果显示,该方法能够将幻觉率降低62.3%,同时保持任务表现的稳定性。
➡️