本研究提出了一种新型联合双重学习方法,克服了现有联合学习在异构数据和通信延迟下的局限性。实验结果表明,该方法在数据不一致的情况下仍能有效更新客户端模型,显著优于现有技术,展示了去中心化数据的潜力。
本研究提出了一种细粒度量化技术,有效解决了大语言模型在多硬件加速器推理中的通信延迟问题,实现了3.5到4.5倍的压缩率,首次令牌响应时间缩短最多2倍,且对模型性能影响微小。
本文提出了一种解决异构设备数据、计算和通信延迟以及非独立同分布数据的联邦学习框架,通过数学分析研究了其收敛性、计算和通信延迟,并最终通过优化问题得到了剪枝比例和无线资源分配的闭式解。实验结果表明,该框架能够显著减少约50%的计算和通信延迟。
本文介绍了一种基于UMAirComp框架的边缘联邦学习方式,可以利用模拟波束成形上传本地模型参数并更新全局模型参数,降低通信延迟和成本。同时提出了低复杂度大规模优化算法,并在边缘联邦学习系统中获得较小的误差。测试表明,UMAirComp系统对于自主驾驶任务更加敏感。
完成下面两步后,将自动完成登录并继续当前操作。