通用联邦学习的收敛差分隐私分析:f-DP 视角

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

该研究提出了差分私有分层联邦学习(DP-HFL)方法,通过在不同层级注入差分隐私噪声,提高了收敛速度,并验证了网络配置对训练的影响。

🎯

关键要点

  • 提出了差分私有分层联邦学习(DP-HFL)方法。
  • DP-HFL增强了隐私-效用权衡。
  • 在不同层级注入差分隐私噪声,包括边缘设备、边缘服务器和云服务器。
  • 全面分析了DP-HFL的收敛行为及其参数调整条件。
  • 收敛速度依赖于网络层次结构、信任模型和目标隐私水平。
  • 数值评估表明DP-HFL在不同隐私预算下提高了收敛速度。
  • 验证了网络配置对训练的影响。
🏷️

标签

➡️

继续阅读