Second-Order Convergence in Private Stochastic Non-Convex Optimization
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究探讨了差分隐私随机非凸优化中寻找二阶静态点的问题,提出了一种基于高斯噪声注入的随机梯度下降框架。该框架通过模型漂移距离判断是否逃离鞍点,确保收敛到近似局部最小值。算法在分布式学习中应用,为异构数据环境中的DP-SOSP提供了正式保证,并通过实际数据集验证了其有效性。
🎯
关键要点
- 本研究探讨了在差分隐私随机非凸优化中寻找二阶静态点(SOSP)的问题。
- 提出了一种基于高斯噪声注入的通用扰动随机梯度下降(PSGD)框架。
- 该框架通过模型漂移距离判断是否逃离鞍点,确保收敛到近似局部最小值。
- 算法在分布式学习中应用,为异构数据环境中的DP-SOSP提供了正式保证。
- 通过实际数据集验证了该算法的有效性。
➡️