本研究提出了一种新的低延迟联邦学习框架LoLaFL,旨在解决传统联邦学习在第六代移动网络中的低延迟问题。通过前向传播和非线性聚合,显著减少通信轮次,降低延迟,具有重要的应用潜力。
本文提出了联邦私有局部训练算法(Fed-PLT),解决了联邦学习中的通信和隐私保护挑战。通过局部参与和训练,减少了通信轮次,实现了对准确性的无影响匹配。同时,代理具有选择不同训练求解器的灵活性,并探讨了如何利用局部训练增强隐私。通过理论分析和数值结果,评估了该算法的有效性。
完成下面两步后,将自动完成登录并继续当前操作。