本研究提出了一种创新的通信方案,针对边缘网络中分散式联邦学习的性能挑战,解决了多跳带宽受限的问题。该算法将训练时间缩短超过80%,提高了计算效率并保持了准确性。
本研究分析了分散式联邦学习中劣质数据对模型训练的影响,发现基于平均值的学习方法对局部坏数据具有较强的鲁棒性,尤其在劣质数据集中于单个节点时,能够有效减小其对整体学习的影响。
本研究分析了不完美通信渠道对分散式联邦学习(D-FL)的影响,并确定了每轮训练的最佳本地汇总次数。实验证实了收敛分析,并在图像分类任务中确定了最佳的本地汇总次数。结果显示,具有最佳本地汇总次数的D-FL可以提高10%以上的训练准确性。
本文介绍了一种采用随机梯度下降算法的分散式联邦学习(DFL)模型,用于改善代理网络中的学习性能。实验中测试了三种DFL调度策略的收敛性、准确性和损失,结果显示调度策略对收敛速度和全局模型有影响。
完成下面两步后,将自动完成登录并继续当前操作。