本文提出了一种新的对比学习框架,用于解决联邦学习中的数据异构性挑战。通过分析梯度更新的不一致性和特征表示分布的依赖性,提出了监督式对比学习(SCL)目标来减轻局部偏差。为了防止表示坍缩并增强特征可传递性,引入了放松的对比学习损失。实验结果表明,该框架在标准基准上比现有的联邦学习方法更优。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: