本文探讨了异步联邦学习中动量方法的挑战,发现异步性会引入隐性偏差。为此,提出了一种动量近似方法,通过优化历史模型更新的加权平均来最小化偏差。该方法兼容安全聚合和差分隐私,易于在生产环境中集成,且通信和存储成本低。实验证明,该方法在基准数据集上可提升1.15至4倍的收敛速度。
完成下面两步后,将自动完成登录并继续当前操作。