研究发现,大型语言模型在缺乏先验知识时容易产生杜撰和幻觉的问题。通过对抗性问答测试和强化学习,经过微调的模型表现更好。研究呼吁进一步研究如何教导模型表达不确定性。
研究调查了大型语言模型在缺乏先验知识时产生杜撰和幻觉的问题,并探讨了如何教导这些模型表达不确定性。经过微调和人类反馈后的模型在处理无法回答问题时表现更好。提取不确定度的方法与模型的自信程度不一致。呼吁进一步研究如何教导模型表达不确定性。
完成下面两步后,将自动完成登录并继续当前操作。