通用联邦学习的收敛差分隐私分析:f-DP 视角
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该研究提出了差分私有分层联邦学习(DP-HFL)方法,通过在不同层级注入差分隐私噪声,提高了收敛速度,并验证了网络配置对训练的影响。
🎯
关键要点
- 提出了差分私有分层联邦学习(DP-HFL)方法。
- DP-HFL增强了隐私-效用权衡。
- 在不同层级注入差分隐私噪声,包括边缘设备、边缘服务器和云服务器。
- 全面分析了DP-HFL的收敛行为及其参数调整条件。
- 收敛速度依赖于网络层次结构、信任模型和目标隐私水平。
- 数值评估表明DP-HFL在不同隐私预算下提高了收敛速度。
- 验证了网络配置对训练的影响。
🏷️
标签
➡️