连续时间随机梯度下降的收敛性及其在线性深度神经网络中的应用

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本研究探讨了随机梯度下降(SGD)方法及其变种在训练非光滑激活函数构建的神经网络中的收敛性质,并提出了一种新的框架。该框架在单一和双时间尺度情况下证明了全局收敛性,并在目标函数采用有限和形式时也具有收敛性质。实验证明了该框架的高效性。

🎯

关键要点

  • 本研究探讨了随机梯度下降(SGD)方法及其变种在训练非光滑激活函数构建的神经网络中的收敛性质。
  • 提出了一种新的框架,分别为更新动量项和变量分配不同的时间尺度。
  • 在温和条件下证明了框架在单一和双时间尺度情况下的全局收敛性。
  • 框架包含了许多著名的SGD类型方法,如heavy-ball SGD、SignSGD、Lion、normalized SGD和clipped SGD。
  • 当目标函数采用有限和形式时,证明了基于该框架的SGD类型方法的收敛性质。
  • 在温和假设条件下,证明了这些SGD方法以随机选择的步长和初始点找到了目标函数的Clarke稳定点。
  • 初步的数值实验表明了分析的SGD类型方法的高效性。
➡️

继续阅读