基于 RVFL 的非线性字典学习的一种无 SVD 方法
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文介绍了一种异步的基于拟牛顿算法的竖直联邦学习框架,以及三个相应的算法。这些算法通过缩小下降步长来减少通信轮次,并更好地利用计算资源。实验结果表明,这些算法在真实数据集上具有更低的通信成本和更好的计算资源利用率。
🎯
关键要点
-
提出了一种异步的基于拟牛顿算法的竖直联邦学习框架 AsySQN。
-
在 AsySQN 框架基础上提出了三个算法:AsySQN-SGD、AsySQN-SVRG 和 AsySQN-SAGA。
-
通过缩小下降步长来减少通信轮次,提升计算资源利用率。
-
理论上证明了算法在强凸问题上的收敛速度。
-
实验结果显示,提出的算法在真实数据集上具有更低的通信成本和更好的计算资源利用率。
🏷️
标签
➡️