可扩展的孤立与编码分片联邦去学习
💡
原文中文,约500字,阅读约需1分钟。
📝
内容提要
该研究提出了一种新的完全联邦去学习框架,解决了个别客户或数据对全局模型的影响问题。通过定义确切的联邦去学习,保证了模型在统计上与未删除数据时的模型无差异。实验证明该框架在准确性、通信成本、计算成本和去学习效果方面具有优势。
🎯
关键要点
- 研究联邦去学习问题,解决个别客户或数据对全局模型的影响。
- 引入新的完全联邦去学习框架,满足通信效率和完全去学习可证明性的条件。
- 定义确切的联邦去学习,保证无学习后的模型与未删除数据时的模型在统计上无差异。
- 开发名为 FATS 的总变差稳定的联邦学习算法,修改经典的 FedAvg 算法以降低通信轮次。
- 设计高效的去学习算法,包括客户级和样本级的去学习。
- 提供学习和去学习算法的理论保证,证明其在原始模型和去学习模型上达到了确切的联邦去学习。
- 在 6 个基准数据集上验证框架在准确性、通信成本、计算成本和去学习效果方面的优越性。
➡️