神经再生核泛函空间及深度网络的表示定理
原文约400字/词,阅读约需1分钟。发表于: 。通过研究神经网络所定义的函数空间,我们展示了深度神经网络定义合适的再生核 Banach 空间,并且通过应用再生核 Banach 空间的理论和变分结果,得到了支持常用有限网络结构的再现定理,为更实际可行的神经网络架构提供了一步。
该论文介绍了一种用于深度学习的假设空间,利用深度神经网络(DNNs)构建了一个再生内核 Banach 空间(RKBS),并研究了正则化学习和最小插值问题。通过建立学习模型的 representer 定理,证明了解可以表示为有限数量的内核会话的线性组合。