对比知识解码:提高理解性语言模型对经过编辑事实的信心
原文中文,约400字,阅读约需1分钟。发表于: 。通过对上下文新知识的影响进行分析,我们观察到虽然新知识的 logits 显著提升,但由于顽固的知识的存在,in-context editing 的性能仍然受到限制。为了解决这个问题并进一步提高 in-context editing 的性能,我们提出了一种新的方法,称为 DeCK,它通过对比由 in-context editing 引导的新编辑知识和未编辑参数化知识获得的 logits...
我们提出了一种新的知识编辑方法DeepEdit,通过深度优先搜索提高编辑效果。DeepEdit适用于所有黑盒语言模型,无需访问模型参数或输出词汇分布。在定性和定量上,DeepEdit都取得了显著性能提升。