神经网络本地差分分类隐私验证
原文中文,约300字,阅读约需1分钟。发表于: 。神经网络在隐私攻击方面容易受到影响。我们提出了一种新的隐私属性,称为局部差分分类隐私(LDCP),将本地鲁棒性扩展到适用于黑盒分类器的差分隐私设置。利用 Sphynx 算法,我们可以从一小组网络中计算出一个抽象的网络,并直接验证 LDCP。通过仅训练 7% 的网络,Sphynx 可以预测出 93% 的抽象网络并减少分析时间。
该文介绍了一种基于图神经网络的学习框架,可以在用户层面提供节点隐私,并在损失效用性方面表现较低。该框架使用分布式隐私保护的概念,在节点水平对特征和标签数据应用随机化机制,并通过随机化数据的统计分析中的频率估计开发了重构方法来逼近扰动数据的特征和标签。此外,该框架还利用图聚类的频率估计来在子图层面监督训练过程。实验结果证明了该模型的有效性。