本文提出了一种名为滑动分割联邦学习(S^2FL)的新型SFL方法,解决了数据异构性和滞后问题。实验结果表明,S^2FL相比传统SFL,推断准确性提高了16.5%,训练加速了3.54倍。
该文介绍了在线传播框架和两种节点自适应传播方法,用于加速可扩展图神经网络的推断过程,并通过超参数灵活管理准确性和时延之间的平衡。作者提出了Inception Distillation来弥补推断准确性损失,实验结果表明该方法优于现有的图推断加速方法。
完成下面两步后,将自动完成登录并继续当前操作。