幻觉是不可避免的:大型语言模型的固有限制
原文中文,约500字,阅读约需2分钟。发表于: 。本研究证明,在大型语言模型中消除幻觉是不可能的,因为我们定义了一个形式世界,其中幻觉被定义为一个可计算的语言模型与一个可计算的真实函数之间的不一致性。通过使用学习理论的结果,我们表明语言模型无法学习所有的可计算函数,因此它们将始终产生幻觉。此外,我们还描述了真实世界中受幻觉影响的任务,并通过实证验证了我们的论点。最后,我们讨论了现有幻觉减轻方法的可能机制和功效,以及对安全部署大型语言模型的实际影响。
最近的语言模型在生成虚假文本方面存在问题,可能对人造成伤害。研究发现,这是固有的统计原因,与架构和数据质量无关。预训练模型可能需要后期处理以减轻幻觉。不过,预训练不会在引用和算术计算等事实上产生幻觉。