R-Tuning:教授大型语言模型拒绝未知问题
原文中文,约400字,阅读约需1分钟。发表于: 。在本研究中,我们通过观察到以往的指导调优方法无论模型是否拥有相关知识都会强制其完成句子,从而导致大语言模型产生虚假事实的问题,提出了一种名为 R-Tuning...
本研究提出了一种名为R-Tuning的新方法,解决了大语言模型产生虚假事实的问题。该方法通过确定参数化知识和指导调优数据之间的差距,构建拒绝感知数据,使模型能够避免回答超出其知识范围的问题。实验证明,该方法有效提高了模型回答已知问题的能力,并避免了回答未知问题。同时,发现拒绝能力是一种可以推广到其他任务上的元技能。此外,学习不确定性比基于不确定性的测试更好地估计不确定性。