先删除再修正:一种无需训练的参数编辑方法用于成本有效的图学习遗忘
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
随着数据隐私关注增加,图神经网络中的遗忘概念受到关注。现有方法常导致过度遗忘,影响预测准确性。为此,研究简化了 GNNDelete 方法,推出 UtU 方法,通过断开图结构中的边实现遗忘。实验显示,UtU 在高隐私保护和准确性下,计算需求低,是一种轻量实用的解决方案。
🎯
关键要点
-
数据隐私关注增加,图神经网络中的遗忘概念成为研究前沿。
-
遗忘概念可以选择性删除特定数据,尤其是边的遗忘在现实应用中广泛适用。
-
现有方法存在过度遗忘问题,导致预测准确性降低。
-
GNNDelete 的损失函数被认为是过度遗忘的主要原因。
-
研究开发了 UtU 方法,通过断开图结构中的边实现遗忘。
-
UtU 方法在隐私保护和准确性上表现优异,保留了高达 97.3% 的隐私保护能力和 99.8% 的链接预测准确性。
-
UtU 方法计算需求低,具有轻量实用的优势。
➡️