FedCoLLM: An Efficient Federated Co-tuning Framework for Large and Small Language Models

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

FedCoLLM是一种高效的联邦共同调优框架,旨在通过轻量级适配器提升小型语言模型(SLM)的性能,同时保护数据隐私,使大型语言模型(LLM)在客户端数据上的表现与直接微调相当。

🎯

关键要点

  • FedCoLLM是一种高效的联邦共同调优框架,旨在解决服务器的大型语言模型(LLM)与客户端的小型语言模型(SLM)之间的相互促进问题。
  • 该框架通过轻量级适配器实现知识的高效传递,显著提升了SLM的性能。
  • FedCoLLM在保护数据隐私的同时,使得LLM在客户端数据上的表现与直接微调相当。
➡️

继续阅读