深度学习的无逆自然梯度下降快速方法

原文约300字,阅读约需1分钟。发表于:

本研究提出了一种名为 FNGD 的快速自然梯度下降方法,通过在第一个迭代周期内计算逆运算,避免了在每次迭代中计算逆运算,从而使计算复杂度接近于一阶方法。通过在图像分类和机器翻译任务上进行实证评估,证明了所提出的 FNGD 方法的高效性。

介绍了一种新的Gram-Gauss-Newton(GGN)算法,用于训练方形损失函数的深度神经网络。GGN算法具有较小的迭代开销和二次收敛速度。实验结果显示,GGN算法比SGD更快地收敛且性能更好。

相关推荐 去reddit讨论