本研究提出了一种基于条件梯度算法的优化模型,适用于线性和非线性凸优化问题。该算法具有线性收敛速度和良好的遗憾保证,能够有效解决大规模优化问题,并在复杂学习任务中表现出高效性。数值实验验证了其优越性能。
本文介绍了针对分散优化问题的随机算法,包括DSBA、D-GET和PMGT-SVRG等。这些算法在非凸优化中表现出线性收敛性和高效性,适合大规模机器学习。同时,研究提出了新算法ME-DOL,并证明其在非光滑非凸目标中的有效性,建立了样本复杂度的理论保证。
本文提出了一个新的联邦学习框架和算法,利用跨客户的分布式计算能力,在线性设置中高效地降低问题维度。实验证明该方法获得与地面实况表示的线性收敛,并在异构数据的联邦环境中相对于个性化联邦学习方法有经验改进。
本文提出了一个新的联邦学习框架和算法,利用跨客户的分布式计算能力进行局部更新,以降低问题维度。实验证明该方法在线性设置中获得线性收敛,并在异构数据的联邦环境中相对于个性化联邦学习方法有经验改进。
本文研究了非光滑的分散式多智能体最优化问题,提出了通用的原始对偶算法框架,证明了方法向确切解的线性收敛。同时,展示了某些算法在强凸目标和不同的局部非光滑项下无法线性收敛。
本文介绍了MUSIC加速框架,实现了每次迭代中的多次本地更新和一次组合。通过不精确和精确的分布式优化方法,开发了两种新算法,表现出高速线性收敛和高通信效率。收敛分析揭示了不精确策略引起的稳态误差的来源并提供了有效的解决方案。数值结果证明了理论动机、分析以及性能优势。
该文介绍了一种新的算法来解决复合联合学习问题,通过分离近端算子和通信来管理非光滑正则化,解决客户端漂移问题。该算法证明了线性收敛到最优解的邻域,并在数值实验中展示了相对于最先进的方法的优越性。
本文提出了一个新的联邦学习框架和算法,利用跨客户的分布式计算能力,在线性设置中高效地降低问题维度。实验证明该方法获得了与地面实况表示的线性收敛,并获得接近最优样本复杂度。此外,该方法在异构数据的联邦环境中相对于个性化联邦学习方法有经验改进。
完成下面两步后,将自动完成登录并继续当前操作。