在差分隐私下的分布式拟牛顿稳健估计

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本文研究了在标准参数服务器架构下,分布式 SGD 算法在受到 Byzantine 攻击和提供加噪信息的情况下,学习一个准确的模型。研究发现,在保证 DP 的情况下,现有的分布式 SGD 在 Byzantine 错误下的收敛性结果是无效的。通过重新调整学习算法,本文提供了关键性见解,基于 BR 的理论提供了近似收敛保证。

🎯

关键要点

  • 研究了在标准参数服务器架构下的分布式 SGD 算法。
  • 探讨了部分节点受到 Byzantine 攻击和提供加噪信息的情况。
  • 发现现有的分布式 SGD 在 Byzantine 错误下的收敛性结果无效。
  • 通过重新调整学习算法,提供了关键性见解。
  • 基于 BR 理论提供了近似收敛保证。
🏷️

标签

➡️

继续阅读