OPERA: 通过过高信任惩罚和回顾分配减轻多模态大语言模型中的虚构问题

本文介绍了一种通过过度信任惩罚和反思分配策略的新型多模式大型语言模型解码方法 OPERA,用于应对幻觉问题,无需额外的数据、知识或训练,实验证明其有效性和普适性。

通过改进训练方法和引入新的评估基准,大型视觉语言模型生成更精确的回答并减少幻觉。在新的评估基准下,该方法实现了8.4%的改进,并在其他模型上也取得了性能提升。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文