神经网络的置换对称性导致非凸性,但适当的置换可以消除障碍。研究发现弱线性连接性和强线性连接性,后者更理想。此外,发现一个置换可以对齐逐步训练和稀疏化的网络序列。首次证明随着网络宽度增加,强线性连接可能是可能的。
本文研究了随机训练后不同解之间的连续路径现象,并证明了随机梯度下降训练的宽两层神经网络的线性连接性。同时,给出了具有独立神经元权重的深度神经网络每层宽度的上下界,并通过权重分布与线性模式连接性的相关性验证了该方法的有效性。
本文研究了随机训练后不同解之间的连续路径现象,并证明了足够宽的两层神经网络的线性连接性。同时,对具有独立神经元权重的深度神经网络的每层宽度给出了线性连接性的上下界,并通过权重分布支持的维度验证了方法的有效性。
完成下面两步后,将自动完成登录并继续当前操作。