在差分隐私下的分布式拟牛顿稳健估计
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
本文研究了在标准参数服务器架构下,分布式 SGD 算法在受到 Byzantine 攻击和提供加噪信息的情况下,学习一个准确的模型。研究发现,在保证 DP 的情况下,现有的分布式 SGD 在 Byzantine 错误下的收敛性结果是无效的。通过重新调整学习算法,本文提供了关键性见解,基于 BR 的理论提供了近似收敛保证。
🎯
关键要点
- 研究了在标准参数服务器架构下的分布式 SGD 算法。
- 探讨了部分节点受到 Byzantine 攻击和提供加噪信息的情况。
- 发现现有的分布式 SGD 在 Byzantine 错误下的收敛性结果无效。
- 通过重新调整学习算法,提供了关键性见解。
- 基于 BR 理论提供了近似收敛保证。
🏷️
标签
➡️