FedDD: 以差分å‚数丢弃实现高效的通信节约è”邦å¦ä¹ 原文约200字,阅读约需1分钟。发表于:2023-08-31T00:00:00Z。 基于模型参数的丢弃而非客户选择的联合学习方案,通过优化上传比例和重要参数选择,提高通信效率和模型收敛速度。 本文介绍了一种基于贝叶斯推理的自适应辍学方法(FedBIAD),通过将局部模型权重转化为概率分布,并根据本地训练损失趋势辍掉部分权重行,从而提高准确性并减少上行通信成本。理论分析表明,FedBIAD 的平均泛化误差收敛速度最快,甚至在非独立同分布数据上可以提高2.41%的准确率,并缩短最多72%的训练时间。 FedBIAD 上行通信成本 准确性 自适应辍学方法 贝叶斯推理