以社区为中心的图去学习
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
随着数据隐私关注加剧,图神经网络中的遗忘概念成为学术界研究的前沿。研究发现当前方法存在过度遗忘问题,降低了预测准确性。为解决此问题,开发了一种名为UtU的新方法,保持了高准确性和隐私保护能力。UtU计算需求恒定,是一种轻量且实用的边的遗忘解决方案。
🎯
关键要点
- 数据隐私关注加剧,图神经网络中的遗忘概念成为研究前沿。
- 研究专注于边的遗忘,发现当前方法存在过度遗忘问题。
- 过度遗忘导致剩余边的预测准确性显著降低。
- 确定 GNNDelete 的损失函数是过度遗忘的主要原因。
- 开发了名为 UtU 的新方法,通过断开忘记边来实现遗忘。
- UtU 在提供隐私保护的同时保持高准确性,保留超过 97.3% 的隐私保护能力和 99.8% 的链接预测准确性。
- UtU 仅需恒定的计算需求,成为轻量且实用的边的遗忘解决方案。
➡️