异步隐私联邦学习中的动量逼近

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本文介绍了一种动态全球模型聚合方法,用于解决异构设备和客户端之间不同分布的数据带来的性能挑战。该方法根据客户端的上传频率对模型更新的权重进行评分和调整,以适应设备能力的差异。实验结果表明,该方法在全球模型的准确性上有显著提升。

🎯

关键要点

  • 提出了一种动态全球模型聚合方法,以应对异质设备和客户端之间不同分布的数据带来的性能挑战。
  • 该方法根据客户端的上传频率对模型更新的权重进行评分和调整,以适应设备能力的差异。
  • 在客户端上传本地模型后立即提供更新的全球模型,以减少闲置时间并提高训练效率。
  • 在10个模拟客户端的AFL部署中评估该方法,客户端具有异质的计算限制和不同分布的数据。
  • 使用FashionMNIST数据集的模拟结果显示,全球模型的准确性分别提高了10%和19%相比于最先进的方法PAPAYA和FedAsync。
  • 该动态聚合方法在限制的客户资源和统计数据异质性下也能实现可靠的全球模型训练,提高了FL部署的韧性和可扩展性。
➡️

继续阅读