先删除再修正:一种无需训练的参数编辑方法用于成本有效的图学习遗忘
原文中文,约500字,阅读约需2分钟。发表于: 。本研究解决了现有图学习遗忘技术需要在剩余数据上进行额外训练,导致高昂计算成本的问题。提出了一种两阶段的无训练方法“先删除再修正”(ETR),通过战略性地编辑模型参数以消除未学习样本的影响,从而有效实现图学习遗忘,并在模型性能上进行了增强。实验结果表明,ETR在模型实用性、学习遗忘效率和有效性方面都表现出色,成为解决实际图学习遗忘挑战的有前景方案。
随着数据隐私关注增加,图神经网络中的遗忘概念受到关注。现有方法常导致过度遗忘,影响预测准确性。为此,研究简化了 GNNDelete 方法,推出 UtU 方法,通过断开图结构中的边实现遗忘。实验显示,UtU 在高隐私保护和准确性下,计算需求低,是一种轻量实用的解决方案。