神经再生核泛函空间及深度网络的表示定理
该论文介绍了一种用于深度学习的假设空间,利用深度神经网络(DNNs)构建了一个再生内核 Banach 空间(RKBS),并研究了正则化学习和最小插值问题。通过建立学习模型的 representer 定理,证明了解可以表示为有限数量的内核会话的线性组合。
原文约400字/词,阅读约需1分钟。
该论文介绍了一种用于深度学习的假设空间,利用深度神经网络(DNNs)构建了一个再生内核 Banach 空间(RKBS),并研究了正则化学习和最小插值问题。通过建立学习模型的 representer 定理,证明了解可以表示为有限数量的内核会话的线性组合。