本文研究了使用SGD训练任意宽度的两层神经网络,证明了第一层权重将收敛于真实模型的主子空间,建立了一个独立于NN宽度的误差边界,并证明了使用SGD训练的ReLU NNs可以通过恢复主方向来学习单指标目标,其样本复杂度与d成线性关系。
完成下面两步后,将自动完成登录并继续当前操作。