解决大型语言模型中的主题粒度和虚构问题用于主题建模
原文中文,约400字,阅读约需1分钟。发表于: 。利用直接偏好优化(Direct Preference Optimization)对开源大型语言模型(Large Language Models)进行微调,以解决主题粒度和虚构主题的问题,实现产生更连贯、相关和精确的主题,并减少虚构主题的数量。
本文提出了自动细粒度幻觉检测任务和综合分类法。通过新的基准测试,研究结果显示ChatGPT和Llama 2-Chat的输出中有60%和75%的幻觉。研究者训练了FAVA来检测和纠正细粒度幻觉,FAVA在细粒度幻觉检测方面明显优于ChatGPT。FAVA的修改还提高了语言模型生成文本的准确性,导致了5-10%的FActScore改进。