FedPIA:利用Wasserstein重心进行适配器的置换和整合,以在多模态联邦学习中微调基础模型
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出FedPIA框架,优化联邦学习与参数高效微调的结合,提升大型视觉-语言模型在医疗隐私环境中的表现,实验结果优于现有方法。
🎯
关键要点
- 本研究提出FedPIA框架,旨在优化联邦学习与参数高效微调的结合。
- FedPIA框架特别针对医疗等严格隐私环境中的大型视觉-语言模型微调问题。
- 通过在服务器和客户端之间进行适配器的置换和整合,显著提高了模型在多样化客户端设置下的表现。
- 实验结果表明,FedPIA在处理多模态任务时,优于现有的PEFT-FL基准方法。
➡️