FedPIA:利用Wasserstein重心进行适配器的置换和整合,以在多模态联邦学习中微调基础模型

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出FedPIA框架,优化联邦学习与参数高效微调的结合,提升大型视觉-语言模型在医疗隐私环境中的表现,实验结果优于现有方法。

🎯

关键要点

  • 本研究提出FedPIA框架,旨在优化联邦学习与参数高效微调的结合。
  • FedPIA框架特别针对医疗等严格隐私环境中的大型视觉-语言模型微调问题。
  • 通过在服务器和客户端之间进行适配器的置换和整合,显著提高了模型在多样化客户端设置下的表现。
  • 实验结果表明,FedPIA在处理多模态任务时,优于现有的PEFT-FL基准方法。
➡️

继续阅读