重审梯度修剪:一种用于抵御梯度攻击的双重实现
原文中文,约300字,阅读约需1分钟。发表于: 。协作学习是一种分布式学习框架,旨在通过共享梯度更新,保护用户隐私。然而,梯度反演攻击对协作学习构成严重的隐私威胁。现有的防御方法在隐私、效用和效率之间存在着很大的折衷。为了克服现有解决方案的缺点,我们提出了一种新的防御方法,双梯度修剪(DGP),基于梯度修剪,可以提高通信效率,同时保护协作学习的效用和隐私。我们的实验证明,DGP 能够有效地抵御最强大的梯度反演攻击,并在不牺牲模型效用的情况下降低通信成本。
协作学习是一种分布式学习框架,通过共享梯度更新保护用户隐私。提出了双梯度修剪(DGP)方法,提高通信效率和保护协作学习的效用和隐私。实验证明,DGP能有效抵御梯度反演攻击并降低通信成本。