CCFC++:通过特征去相关化增强联邦聚类

BriefGPT - AI 论文速递 BriefGPT - AI 论文速递 ·

本文提出了一种新的对比学习框架,用于解决联邦学习中的数据异构性挑战。通过分析梯度更新的不一致性和特征表示分布的依赖性,提出了监督式对比学习(SCL)目标来减轻局部偏差。为了防止表示坍缩并增强特征可传递性,引入了放松的对比学习损失。实验结果表明,该框架在标准基准上比现有的联邦学习方法更优。

原文中文,约300字,阅读约需1分钟。
阅读原文