只分享你的表达:保证在联合学习中隐私效用权衡的改进
使用差分隐私算法减轻联邦学习中的信息泄露风险,提供共识模型的协作更新,同时允许本地个性化,以优化隐私 - 效用权衡问题,并通过实验证明,在小的隐私预算下,相比之前的方法,在图像分类任务中取得显著性能提升。
该文提出了一个新的联邦学习框架和算法,利用跨客户的分布式计算能力,实现在客户之间学习共享的数据表示和每个客户的独特的本地头。该算法在线性设置中获得与地面实况表示的线性收敛,并获得接近最优样本复杂度,从而在每个客户端高效地降低问题维度。
使用差分隐私算法减轻联邦学习中的信息泄露风险,提供共识模型的协作更新,同时允许本地个性化,以优化隐私 - 效用权衡问题,并通过实验证明,在小的隐私预算下,相比之前的方法,在图像分类任务中取得显著性能提升。
该文提出了一个新的联邦学习框架和算法,利用跨客户的分布式计算能力,实现在客户之间学习共享的数据表示和每个客户的独特的本地头。该算法在线性设置中获得与地面实况表示的线性收敛,并获得接近最优样本复杂度,从而在每个客户端高效地降低问题维度。