递归神经网络的泛化与风险界限
原文中文,约500字,阅读约需1分钟。发表于: 。本研究解决了递归神经网络(RNNs)在理论研究中落后的问题,通过为普通RNN建立新的泛化误差界限,提供了一个统一的框架来计算Rademacher复杂度。研究发现,当采用ramp损失时,新界限比现有界限更紧,平均提高了13.80%和3.01%,并在多分类问题中为基于RNN的估计器提供了准确的估计误差界限。
本文推导了针对特殊离散时间非线性动力系统的PAC-Bayes界限,主要应用于稳定的递归神经网络(RNN)。通过施加稳定性约束,该界限依赖于数据分布的混合系数和最大值,并随着数据集增大而收敛于零。研究正式化了学习问题,推导了误差界限,并讨论了适用于非独立同分布时序数据的计算方法。