本研究探讨大型语言模型(LLM)生成高置信度错误输出的现象,称为“LLM幻觉”。研究发现,在低不确定性情况下更难以检测和减轻幻觉,并提出了针对性的减轻策略,以提高模型的可靠性。
完成下面两步后,将自动完成登录并继续当前操作。