FedsLLM: 面向通信网络的大型语言模型联邦分裂学习
📝
内容提要
本研究提出了一种利用 LoRA 技术的联邦分割语言模型(FedsLLM)框架,通过在无线通信网络中将网络划分为客户端子网络和服务器子网络,利用联邦服务器来聚合和更新客户端模型,实现了对大型语言模型的部署挑战进行解决,通过整合计算和通信优化以将训练延迟最小化,并给出了这个问题的精确解。模拟结果表明,与未经优化的场景相比,所提出的优化算法平均减少了 47.63% 的延迟。
🏷️
标签
➡️