轻量级无监督的预训练视觉语言模型联邦学习

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

我们提出了一种轻量级的无监督联邦学习方法,通过利用每个客户端上的无标签数据进行模型训练和通信,解决监督式联邦学习中的挑战。该方法利用预训练的视觉-语言模型和图像编码器,改进无标签实例的初始预测,并采用类平衡文本特征采样策略以解决数据异质性。实验证明该方法显著提升模型性能。

🎯

关键要点

  • 提出了一种轻量级的无监督联邦学习方法。

  • 该方法利用每个客户端上的无标签数据进行模型训练和通信。

  • 解决了监督式联邦学习中的挑战。

  • 利用预训练的视觉-语言模型和图像编码器改进无标签实例的初始预测。

  • 采用类平衡文本特征采样策略以解决数据异质性。

  • 实验证明该方法显著提升模型性能,超过了监督式联邦学习基准方法。

➡️

继续阅读