研究发现,大型语言模型在缺乏先验知识时容易产生杜撰和幻觉的问题。通过对抗性问答测试和强化学习,经过微调的模型表现更好。研究呼吁进一步研究如何教导模型表达不确定性。
完成下面两步后,将自动完成登录并继续当前操作。