FedGAN是一种用于训练分布式非独立同分布数据源的算法,通过同步本地生成器和辨别器以及平均和广播参数的中介,使用随机梯度下降法收敛。实验结果表明,FedGAN在不同数据集上具有类似于一般分布式GAN的性能,并减少通信复杂性。
本文研究了随机梯度下降法(SGD)的最终迭代中存在一个ε-稳定点,并提出了度量ε-稳定点密度的方法。同时,恢复了经典的O(1/√T)渐进速率,并解决了与SGD的非凸收敛性相关的迷思和传说。
本文研究了随机梯度下降法(SGD)的最终迭代中的ε-稳定点及其密度,恢复了经典的O(1/√T)渐进速率,解决了与SGD的非凸收敛性相关的迷思和传说,并提出了研究方向。
本文介绍了使用本地差分隐私的情境赌博算法,利用随机梯度下降法的估计器和更新机制,在保护用户数据隐私的同时实现个性化学习。通过最小二乘法的评估器和更新机制,证明了算法在强隐私保护条件下具有良好的性能。
本文研究了在平滑拟凸和非凸函数上的随机梯度下降法(SGD)进行延迟更新,并得出了非渐近收敛速度。研究发现,在存在噪声的情况下,延迟的影响在几次迭代后变得微不足道,算法以与标准SGD相同的最优速度收敛。此外,在使用层压梯度进行错误补偿和多个节点上做本地SGD之后通信的情况下,与现有最佳算法相比,得到了更好的结果。这些结果表明SGD对于压缩和/或延迟的随机梯度更新是具有鲁棒性的,对于分布式并行实现特别重要。
完成下面两步后,将自动完成登录并继续当前操作。