FedHide:通过邻居隐匿实现联邦学ä¹
原文中文,约300字,阅读约需1分钟。发表于: 。本研究解决了在联邦学习中保持隐私的挑战,尤其是在每个客户端仅拥有单一类别数据的情况下。我们提出了一种新颖的方法,通过线性组合邻近样本生成代理类别原型,避免直接共享真实类别原型,从而保护敏感信息。实证结果表明,该方法在多个基准数据集上有效,同时具备抵抗梯度反演攻击的能力。
本文提出了联邦私有局部训练算法(Fed-PLT),解决了联邦学习中的通信和隐私保护挑战。通过局部参与和训练,减少了通信轮次,实现了对准确性的无影响匹配。同时,代理具有选择不同训练求解器的灵活性,并探讨了如何利用局部训练增强隐私。通过理论分析和数值结果,评估了该算法的有效性。