FedCiR:面向联邦非 IID 特征的客户端不变表示学习
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文提出了一个新的联邦学习框架和算法,利用跨客户的分布式计算能力,在线性设置中高效地降低问题维度。实验证明该方法获得了与地面实况表示的线性收敛,并获得接近最优样本复杂度。此外,该方法在异构数据的联邦环境中相对于个性化联邦学习方法有经验改进。
🎯
关键要点
-
提出了一个新的联邦学习框架和算法,用于学习共享的数据表示和每个客户的独特本地头。
-
算法利用跨客户的分布式计算能力进行低维本地参数的局部更新。
-
在线性设置中,该方法实现了与地面实况表示的线性收敛,接近最优样本复杂度。
-
该方法在每个客户端高效降低问题维度,超出了联合学习的范畴。
-
该方法在元学习和多任务学习等领域具有广泛的应用潜力。
-
实验结果显示该方法在异构数据的联邦环境中相对于个性化联邦学习方法有经验改进。
➡️