轻量级无监督的预训练视觉语言模型联邦学习
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
我们提出了一种轻量级的无监督联邦学习方法,通过利用每个客户端上的无标签数据进行模型训练和通信,解决监督式联邦学习中的挑战。该方法利用预训练的视觉-语言模型和图像编码器,改进无标签实例的初始预测,并采用类平衡文本特征采样策略以解决数据异质性。实验证明该方法显著提升模型性能。
🎯
关键要点
-
提出了一种轻量级的无监督联邦学习方法。
-
该方法利用每个客户端上的无标签数据进行模型训练和通信。
-
解决了监督式联邦学习中的挑战。
-
利用预训练的视觉-语言模型和图像编码器改进无标签实例的初始预测。
-
采用类平衡文本特征采样策略以解决数据异质性。
-
实验证明该方法显著提升模型性能,超过了监督式联邦学习基准方法。
➡️