本文研究了大型视觉语言模型(LVLM)中的对象幻觉问题,提出了一种新方法——真实引导预干预(TruthPrInt)。研究发现,LVLM的内部状态可以指示幻觉行为,不同模型在潜在子空间中表现出相似的幻觉模式。实验结果表明,TruthPrInt在多个基准测试中显著优于现有方法。
完成下面两步后,将自动完成登录并继续当前操作。