TriplePlay:利用CLIP增强联邦学习以应对非独立同分布数据和资源效率
该研究提出了一种灵活的隐私范式,将部分客户端的本地数据建模为非私有数据,从而提供了更多样化且以企业为导向的隐私视角。通过离线数据共享和近似梯度编码技术,提出了一种基于数据驱动的策略,用于减轻标签异质性和客户端慢速运行对联邦学习的影响。通过使用MNIST数据集进行数值模拟,证明了该方法能够改善模型的收敛性和准确性,并且可以利用一部分非私有数据。
原文中文,约300字,阅读约需1分钟。