通用联邦学习的收敛差分隐私分析:f-DP 视角
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对联邦学习中隐私保护不足的问题展开,探讨了现有对于噪声联邦差分隐私分析的局限性。通过引入 f-DP 分析方法,论文证明了 Noisy-FedAvg 方法在隐私保护中的收敛下界,以及 Noisy-FedProx 方法的稳定隐私下界,为联邦学习的隐私保护提供了理论支持,并可推广应用至其他差分隐私分析框架。
该研究提出了差分私有分层联邦学习(DP-HFL)方法,通过在不同层级注入差分隐私噪声,提高了收敛速度,并验证了网络配置对训练的影响。