先删除再修正:一种无需训练的参数编辑方法用于成本有效的图学习遗忘

💡 原文中文,约500字,阅读约需2分钟。
📝

内容提要

随着数据隐私关注增加,图神经网络中的遗忘概念受到关注。现有方法常导致过度遗忘,影响预测准确性。为此,研究简化了 GNNDelete 方法,推出 UtU 方法,通过断开图结构中的边实现遗忘。实验显示,UtU 在高隐私保护和准确性下,计算需求低,是一种轻量实用的解决方案。

🎯

关键要点

  • 数据隐私关注增加,图神经网络中的遗忘概念成为研究前沿。

  • 遗忘概念可以选择性删除特定数据,尤其是边的遗忘在现实应用中广泛适用。

  • 现有方法存在过度遗忘问题,导致预测准确性降低。

  • GNNDelete 的损失函数被认为是过度遗忘的主要原因。

  • 研究开发了 UtU 方法,通过断开图结构中的边实现遗忘。

  • UtU 方法在隐私保护和准确性上表现优异,保留了高达 97.3% 的隐私保护能力和 99.8% 的链接预测准确性。

  • UtU 方法计算需求低,具有轻量实用的优势。

➡️

继续阅读