分布式学习中拜占庭攻击下的泛化误差问题

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

该研究探讨了分布式网络中拜占庭鲁棒随机优化问题,通过引入两种方差减小方法,实现了线性收敛速度和随机梯度噪声独立的学习误差,对基于总变异范数正则化和随机子梯度更新的方法具有最优的学习误差表现,并在广泛的拜占庭攻击实验中得到了验证。

🎯

关键要点

  • 该研究探讨了分布式网络中的拜占庭鲁棒随机优化问题。
  • 每个代理定期与邻居通信以交换本地模型。
  • 通过随机梯度下降(SGD)更新本地模型。
  • 引入两种方差减小方法(SAGA 和 LSVRG),消除随机梯度噪声的负面影响。
  • 实现了线性收敛速度和随机梯度噪声独立的学习误差。
  • 对基于总变异(TV)范数正则化和随机子梯度更新的方法具有最优的学习误差表现。
  • 在广泛的拜占庭攻击实验中得到了验证。
➡️

继续阅读