机器生成虚假信息中的模型归属:一种带有监督对比学习的领域泛化方法
原文中文,约300字,阅读约需1分钟。发表于: 。模型归因是一个颇有挑战性的问题,因为现代大型语言模型能够生成具有类人质量的虚假信息,其生成方法的多样性导致准确的来源归因复杂化。本文提出了将模型归因看作一个领域泛化问题,并引入了一种新颖的基于监督对比学习的方法来提高模型对提示变化的鲁棒性,主要用于区分不同来源的大型语言模型。通过在三种常见的生成方法和三种先进的语言模型上进行实验,我们的结果表明了我们的方法在模型归因任务上的有效性,实现了包括...
本文提出了一种基于监督对比学习的方法,用于提高模型对提示变化的鲁棒性,主要用于区分不同来源的大型语言模型。实验证明该方法在模型归因任务上有效。