FxTS-Net:神经常微分方程的固定时间稳定学习框架

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

神经ODE通过连续深度神经网络参数化微分方程,提供了恒定的内存成本和灵活性,但ODE求解器存在稳定性和收敛性问题。我们提出了一种基于Nesterov加速梯度的ODE求解器,证明其在分类、密度估计和时间序列建模中的有效性。

🎯

关键要点

  • 神经ODE通过连续深度神经网络参数化微分方程,提供恒定的内存成本和灵活性。

  • 神经ODE的内存成本随隐藏层数的增加呈线性增长。

  • 神经ODE具有可调适性和选择数值精度或快速训练的灵活性。

  • ODE求解器存在稳定性、一致性和收敛性问题,可能导致收敛速度慢或不收敛。

  • 提出了一种基于Nesterov加速梯度的ODE求解器,能够满足CCS条件。

  • 通过在监督分类、密度估计和时间序列建模中验证了该方法的有效性。

➡️

继续阅读