联邦环境中低秩矩阵分解的深入分析
发表于: 。本研究针对低秩矩阵分解在联邦学习设置中的分布式算法进行了分析,解决了在多客户端环境中数据集局部性对模型训练的影响。通过将光滑非凸问题转化为光滑强凸问题,我们提出了基于并行Nesterov梯度下降的解决方案,并证实了其收敛速度优于现有文献的结果。实验表明,该方法在重构误差上表现出显著改善,能够有效提升模型训练的效率。
本研究针对低秩矩阵分解在联邦学习设置中的分布式算法进行了分析,解决了在多客户端环境中数据集局部性对模型训练的影响。通过将光滑非凸问题转化为光滑强凸问题,我们提出了基于并行Nesterov梯度下降的解决方案,并证实了其收敛速度优于现有文献的结果。实验表明,该方法在重构误差上表现出显著改善,能够有效提升模型训练的效率。