FxTS-Net:神经常微分方程的固定时间稳定学习框架
原文中文,约400字,阅读约需1分钟。发表于: 。本研究解决了神经常微分方程(Neural ODEs)在用户定义的固定时间内达到准确预测状态的挑战。通过提出基于Lyapunov条件的固定时间稳定性(FxTS)框架FxTS-Net,研究者设计了能促进收敛的FxTS损失函数,从而在实验中实现了更优的预测性能和输入扰动下的鲁棒性。
神经ODE通过连续深度神经网络参数化微分方程,提供了恒定的内存成本和灵活性,但ODE求解器存在稳定性和收敛性问题。我们提出了一种基于Nesterov加速梯度的ODE求解器,证明其在分类、密度估计和时间序列建模中的有效性。