该文介绍了一种全面分散联合学习算法,通过本地更新和节点间通信的交替,减少参数通信轮次,数值模拟结果表明该算法性能优势明显。
本文提出了一种基于 Ornstein-Uhlenbeck 过程的方案,通过收集具有信息更新的客户端模型和估计没有通信的本地更新的方式来更新中央模型,实现了在保证性能的同时显著减少了通信量,为联邦学习提供了一种新的通信效率优化方案。
完成下面两步后,将自动完成登录并继续当前操作。