本文研究了深度残差神经网络(ResNets)中的缩放因子(α)对泛化能力的影响。研究发现,当α是常数时,深度趋于无穷时,由残差神经切向核(RNTK)引起的函数类是不可学习的。然而,当α与深度L迅速减小时,使用深度RNTK进行早停止的核回归可以达到最小最大速率。模拟研究支持了对α选择的理论标准。
完成下面两步后,将自动完成登录并继续当前操作。