从Lipschitz空间视角看无限宽浅层神经网络
发表于: 。本研究解决了浅层神经网络在最优参数空间下的均值场参数化中存在的缺口,提出考虑激活函数的规律性与增长的新方法。关键发现是,使用不平衡的Kantorovich-Rubinstein范数可以有效结合完全线性参数化与最优传输理论,推动了变分公式的最小化存在性,并展示了在不同条件下的算法稳定性。
本研究解决了浅层神经网络在最优参数空间下的均值场参数化中存在的缺口,提出考虑激活函数的规律性与增长的新方法。关键发现是,使用不平衡的Kantorovich-Rubinstein范数可以有效结合完全线性参数化与最优传输理论,推动了变分公式的最小化存在性,并展示了在不同条件下的算法稳定性。