本研究提出了联邦图提示学习(FedGPL)框架,旨在解决多样化数据下联邦图学习的异构性问题。实验结果表明,FedGPL在精度和效率上优于现有方法。
本文介绍了并行连续学习(PSL)的框架,通过设备之间的分散合作、考虑异构性和接近度,实现了模型的分散和本地模型凝聚,优化模型学习和资源效率。
该论文提出了一种名为FedGH的方法,通过梯度协调来解决联邦学习中来自多个客户端的异构性问题。实验证明,FedGH能显著提升现有的联邦学习方法,在存在更强异构性的情况下效果更为显著,且无需超参数调整。
完成下面两步后,将自动完成登录并继续当前操作。