Critical Learning: Selective Self-Distillation in Federated Learning with Non-IID Data
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了一种选择性自蒸馏方法(FedSSD),旨在解决联邦学习中因数据异质性导致的局部模型优化问题。该方法通过加权全局模型知识,显著提升了模型的泛化能力和鲁棒性,并减少了通信轮次。
🎯
关键要点
- 本研究提出了一种选择性自蒸馏方法(FedSSD),旨在解决联邦学习中因数据异质性导致的局部模型优化问题。
- FedSSD通过加权全局模型知识,显著提升了模型的泛化能力和鲁棒性。
- 该方法还减少了通信轮次,提高了联邦学习的效率。
➡️