梯度转化:面向动态图神经网络的高效和模型无关的遗忘
原文中文,约500字,阅读约需2分钟。发表于: 。我们提出了一种有效、高效、模型无关的后处理方法来实现动态图神经网络的去学习,通过定义去学习请求并在连续时间动态图的背景下形成动态图的去学习,通过对去学习数据、剩余数据和目标动态图神经网络模型进行角色分析,我们提出了一种称为梯度变换和损失函数的方法,将去学习请求映射到所需的参数更新。我们在六个真实世界数据集和最先进的动态图神经网络骨干上进行评估,证明了其效果(例如,性能下降有限,甚至明显改进)...
随着数据隐私关注加剧,图神经网络中的遗忘概念成为学术界研究的前沿。研究发现当前方法过度遗忘,降低了预测准确性。为解决此问题,开发了一种名为UtU的新方法,保持了高准确性和隐私保护能力。UtU计算需求恒定,是一种轻量且实用的边的遗忘解决方案。