本研究提出了FedMoE-DA框架,解决了联邦学习中因客户端资源限制导致的大规模模型部署问题。该框架结合混合专家架构与领域感知聚合策略,提升了模型的鲁棒性和通信效率,减轻了服务器的通信负担。
本研究提出了FedMoE框架,用于解决联合学习中的数据异质性问题。该框架利用稀疏激活的混合专家架构,提高个性化联邦学习的效率和灵活性。实验证明,FedMoE在资源受限的环境中能够实现更优的模型训练效果。
通过引入混合专家方法,我们提出了一种新颖的模型异构个性化联邦学习算法(FedMoE),用于解决当前模型异构个性化联邦学习方法中的数据和模型隐私、模型性能、通信和计算成本等问题。该算法通过在本地训练过程中结合全局和本地特征来提高模型的个性化能力,并通过信息聚合实现跨客户端的模型参数融合。
完成下面两步后,将自动完成登录并继续当前操作。