Second-Order Convergence in Private Stochastic Non-Convex Optimization

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究探讨了差分隐私随机非凸优化中寻找二阶静态点的问题,提出了一种基于高斯噪声注入的随机梯度下降框架。该框架通过模型漂移距离判断是否逃离鞍点,确保收敛到近似局部最小值。算法在分布式学习中应用,为异构数据环境中的DP-SOSP提供了正式保证,并通过实际数据集验证了其有效性。

🎯

关键要点

  • 本研究探讨了在差分隐私随机非凸优化中寻找二阶静态点(SOSP)的问题。
  • 提出了一种基于高斯噪声注入的通用扰动随机梯度下降(PSGD)框架。
  • 该框架通过模型漂移距离判断是否逃离鞍点,确保收敛到近似局部最小值。
  • 算法在分布式学习中应用,为异构数据环境中的DP-SOSP提供了正式保证。
  • 通过实际数据集验证了该算法的有效性。
➡️

继续阅读