只分享你的表达:保证在联合学习中隐私效用权衡的改进
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该文提出了一个新的联邦学习框架和算法,利用跨客户的分布式计算能力,实现在客户之间学习共享的数据表示和每个客户的独特的本地头。该算法在线性设置中获得与地面实况表示的线性收敛,并获得接近最优样本复杂度,从而在每个客户端高效地降低问题维度。
🎯
关键要点
- 提出了一个新的联邦学习框架和算法。
- 算法用于在客户之间学习共享的数据表示和每个客户的独特本地头。
- 利用跨客户的分布式计算能力进行局部更新。
- 在线性设置中获得与地面实况表示的线性收敛。
- 接近最优样本复杂度,降低每个客户端的问题维度。
- 结果超出联合学习,适用于元学习和多任务学习。
- 实验结果显示方法在异构数据的联邦环境中相对于个性化联邦学习方法的改进。
➡️