动态差分隐私去中心化学习:可证明的效用保证

📝

内容提要

本研究解决了现有去中心化学习方法中常量梯度截断界限和固定级别差分隐私噪声导致的准确性下降问题。提出的Dyn-D$^2$P方法根据梯度收敛动态调整梯度截断界限和噪声水平,从而在保证隐私的同时提高模型准确度。实验结果表明,这一方法在强隐私保证下显著优于采用固定级别噪声的对手,且首次为动态梯度截断界限和噪声水平下的差分隐私去中心化非凸优化提供了可证明的效用界限。

➡️

继续阅读