关于正则化 NTK 动态的一点说明及其在 PAC-Bayesian 训练中的应用

原文约300字,阅读约需1分钟。发表于:

建立了神经网络的显式动力学,其中训练目标包含了对参数保持接近初始值的限制,从而使网络保持在惰性训练状态,从而可以在线性化初始状态下的动力学。标准的神经切线核(NTK)控制训练期间的演变,尽管正则化会在描述动力学的微分方程中产生额外的项。该设置为研究广泛网络优化泛化目标(如 PAC-Bayes 界限)的演变提供了一个适当的框架,从而有可能对这类网络的理论理解做出更深入的贡献。

该研究通过限制参数保持接近初始值,建立了神经网络的显式动力学,使网络保持在惰性训练状态。研究发现,标准的神经切线核(NTK)可以控制训练期间的演变。这一研究为研究网络优化泛化目标提供了一个适当的框架,有助于对这类网络的理论理解做出更深入的贡献。

相关推荐 去reddit讨论