以社区为中心的图去学习

💡 原文中文,约500字,阅读约需2分钟。
📝

内容提要

随着数据隐私关注加剧,图神经网络中的遗忘概念成为学术界研究的前沿。研究发现当前方法存在过度遗忘问题,降低了预测准确性。为解决此问题,开发了一种名为UtU的新方法,保持了高准确性和隐私保护能力。UtU计算需求恒定,是一种轻量且实用的边的遗忘解决方案。

🎯

关键要点

  • 数据隐私关注加剧,图神经网络中的遗忘概念成为研究前沿。
  • 研究专注于边的遗忘,发现当前方法存在过度遗忘问题。
  • 过度遗忘导致剩余边的预测准确性显著降低。
  • 确定 GNNDelete 的损失函数是过度遗忘的主要原因。
  • 开发了名为 UtU 的新方法,通过断开忘记边来实现遗忘。
  • UtU 在提供隐私保护的同时保持高准确性,保留超过 97.3% 的隐私保护能力和 99.8% 的链接预测准确性。
  • UtU 仅需恒定的计算需求,成为轻量且实用的边的遗忘解决方案。
➡️

继续阅读