在本文中,我们提出了一种名为 FedCOME 的共识机制,通过在服务器端对客户端的梯度进行微调,保证了每轮训练后每个客户端的风险减少;我们还设计了一种新的客户端采样策略,将共识机制推广到部分参与的联邦学习场景,有效地减少了未被选中的客户端的风险。通过在四个基准数据集上进行广泛实验证明了 FedCOME 在效果、效率和公平性方面优于其他最先进的方法。
本文介绍了FedCOME共识机制,通过微调客户端梯度减少风险,并提出了新的客户端采样策略。实验证明FedCOME在效果、效率和公平性方面优于其他方法。