多模态大型语言模型的幻觉:一项调查
原文中文,约300字,阅读约需1分钟。发表于: 。综述着重从细致的分类及持盾人儿的划分、评估基准和减轻方式中就多模式大型语言模型(MLLMs)中产生幻觉的原因进行分析,旨在加深对 MLLMs 中幻觉的理解,并激发该领域的进一步发展。
该文章介绍了细粒度幻视建模和缓解的方法,通过分类和度量幻视的倾向。作者提供了两个幻视方向的理解,并将其细分为内在和外在,严重程度分为温和、中度和令人担忧,同时对幻视进行了六种类型的分类。作者还提供了包含75,000个样本和人工注释的HILT数据集。最后,作者提出了Hallucination Vulnerability Index(HVI),该指数可以量化和评估语言模型在产生幻视方面的脆弱性,并作为人工智能政策制定的标准工具。