通过对28种已发布系统的调查,研究发现BTM工具在异构数据集上的性能明显低于同质数据集中的结果,需要进一步研究以增强其稳定性。
本研究提出了一种新的联邦学习框架,使用去中心化知识蒸馏来训练全球模型,以更好地适应神经网络映射平均值。实验证明,该框架在异构数据集上表现出更高的效率和更好的训练结果。
完成下面两步后,将自动完成登录并继续当前操作。