面向资源受限环境的自适应联邦学习方法
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文介绍了一种动态全球模型聚合方法,用于解决异质设备和客户端之间不同分布的数据带来的性能挑战。该方法根据客户端的上传频率对模型更新的权重进行评分和调整,以适应设备能力的差异。同时,在客户端上传本地模型后立即提供更新的全球模型,以提高训练效率。实验结果表明,该方法在全球模型的准确性上有显著提升。该方法能够在限制的客户资源和统计数据异质性下实现可靠的全球模型训练,提高了现实世界的联邦学习部署的韧性和可扩展性。
🎯
关键要点
- 提出了一种动态全球模型聚合方法,以应对异质设备和客户端之间不同分布的数据带来的性能挑战。
- 该方法根据客户端的上传频率对模型更新的权重进行评分和调整,以适应设备能力的差异。
- 在客户端上传本地模型后立即提供更新的全球模型,以减少闲置时间并提高训练效率。
- 在10个模拟客户端的AFL部署中评估该方法,客户端具有异质的计算限制和不同分布的数据。
- 使用FashionMNIST数据集的模拟结果显示,全球模型的准确性分别提高了10%和19%,与最先进的方法PAPAYA和FedAsync相比。
- 该动态聚合方法能够在限制的客户资源和统计数据异质性下实现可靠的全球模型训练,提高了现实世界的联邦学习部署的韧性和可扩展性。
➡️