松弛对比学习用于联合学习
原文约400字/词,阅读约需1分钟。发表于: 。我们提出了一种新颖的对比学习框架,以应对联邦学习中的数据异构性挑战。我们分析了本地训练期间客户端之间梯度更新的不一致性,并建立了其与特征表示分布的依赖性,从而导出了用于减轻局部偏差的监督式对比学习(SCL)目标。此外,我们表明,在联邦学习中简单采用 SCL...
本文提出了一种新的对比学习框架,用于解决联邦学习中的数据异构性挑战。该框架通过分析客户端之间梯度更新的不一致性,并建立其与特征表示分布的依赖性,提出了监督式对比学习(SCL)目标来减轻局部偏差。为了防止表示坍缩并增强特征可传递性,引入了放松的对比学习损失,对过度相似的样本对施加差异惩罚。实验结果表明,该框架在标准基准上比现有的联邦学习方法更具优势。