FedSDD:面向联邦学习模型聚合的可扩展和多样性增强蒸馏
💡
原文中文,约2300字,阅读约需6分钟。
📝
内容提要
该文章介绍了一种基于知识蒸馏的联邦学习方法FedSDD,通过构建教师模型的聚合集合来提高可伸缩性和性能。该方法在基准数据集上表现优于其他联邦学习方法。
🎯
关键要点
- 提出了一种基于知识蒸馏的联邦学习方法FedSDD。
- FedSDD通过构建教师模型的聚合集合来提高可伸缩性和性能。
- 该方法在基准数据集上表现优于其他联邦学习方法,如FedAvg和FedDF。
- FedSDD增强了模型的多样性和整体性能。
- 研究表明,知识蒸馏方法能够改善联邦学习的鲁棒性和效率。
➡️