FedDD: 以差分参数丢弃实现高效的通信节约联邦学ä¹

原文约200字,阅读约需1分钟。发表于:

基于模型参数的丢弃而非客户选择的联合学习方案,通过优化上传比例和重要参数选择,提高通信效率和模型收敛速度。

本文介绍了一种基于贝叶斯推理的自适应辍学方法(FedBIAD),通过将局部模型权重转化为概率分布,并根据本地训练损失趋势辍掉部分权重行,从而提高准确性并减少上行通信成本。理论分析表明,FedBIAD 的平均泛化误差收敛速度最快,甚至在非独立同分布数据上可以提高2.41%的准确率,并缩短最多72%的训练时间。

相关推荐 去reddit讨论