FedCAP:通过定制聚合和个性化实现稳健的联邦学习
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对联邦学习中的非独立同分布数据和拜占庭威胁这两个关键问题,提出了一种名为FedCAP的稳健框架。其核心是模型更新校准机制,能够帮助服务器捕捉客户端间模型更新的方向和幅度差异,同时设计了定制的模型聚合规则,以促进相似客户端的协作训练并加速恶意客户端的模型退化。实验结果表明,FedCAP在多种非独立同分布设置下表现出色,并在一系列攻击场景中表现出强大的鲁棒性。
本研究提出FedCAP框架,解决联邦学习中的数据不独立同分布和拜占庭攻击问题。通过模型更新校准和定制聚合规则,促进相似客户端协作,抑制恶意客户端。实验结果显示FedCAP具有优异的鲁棒性。