本文探讨了在通信成本和隐私保护限制下的联邦表示学习,提出了基于对比学习的框架和多原型策略,以提高模型性能和隐私保护。实验结果显示,这些方法在多个数据集上表现优异,有效应对数据异构性和标签偏斜问题。
本文研究了在通信成本和隐私保护的限制下联邦表示学习的可行性。通过自监督对比本地训练的鲁棒性,提出了一种新的Federated representation Learning框架,使用相似度蒸馏对全局模型进行训练。实验证明该方法在多种数据集上能够以可比较的结果实现多种设置下的性能。
本文提出了一种新的联邦表示学习框架,使用相似度蒸馏对全局模型进行训练,以实现在通信成本和隐私保护的限制下的可行性。实验证明该方法在多种数据集上能够以可比较的结果实现多种设置下的性能。
完成下面两步后,将自动完成登录并继续当前操作。