本研究提出了一种目标层更新策略,以解决联邦学习中因客户数据分布非独立同分布导致的性能限制问题。实验结果表明,该方法显著提升了模型在非IID环境下的收敛性和性能。
完成下面两步后,将自动完成登录并继续当前操作。