通过秘密数据集分割和 Benders 分解增强度量差分隐私的可扩展性
原文中文,约400字,阅读约需1分钟。发表于: 。开发一种新的计算框架来提高线性规划方法下的度量差分隐私的可扩展性,并以此为基础解决主程序和子程序的的边界分解,实验证明了该机制在多个数据集上的优越可扩展性和效率。
差分隐私在隐私保护机器学习领域取得显著成果,但现有框架无法满足所有条件。我们提出了Wasserstein差分隐私(WDP),一种满足对称性和三角不等式的替代框架。WDP具有13个优秀属性,可作为WDP相较于其他框架更好性能的理论支持。我们还推导了一种通用隐私计算方法,使WDP适用于包含子采样的随机梯度下降场景。实验证明Wasserstein账户得到的隐私预算相对稳定且不受顺序影响,且可以有效缓解隐私预算的高估。