本文研究了多元脊函数对Sobolev函数逼近的上下界,提出了一种方法,揭示了逼近速度与正则性之间的关系,并为广义平移网络和复值神经网络在Sobolev函数逼近中的应用提供了渐近界,从而加深了对复杂网络逼近能力的理解。
该文研究了一类新的Banach空间,证明了具有多元非线性的神经结构是这些空间中学习问题解集的完全刻画,并研究了这些神经结构的变分最优性。最优的神经结构具有跳跃连接,与正交权重归一化和多索引模型紧密相关。底层空间是再生核Banach空间和变分空间的特殊实例,并为神经网络在数据上学习的函数的正则性提供了新的理论动机。
本文分析了DRS、PRS和ADMM算法在不同正则性假设下的收敛速率。研究发现,放松的PRS和ADMM能够自动适应问题的正则性并提高收敛速率。
完成下面两步后,将自动完成登录并继续当前操作。