神经再生核泛函空间及深度网络的表示定理
💡
原文约400字/词,阅读约需1分钟。
📝
内容提要
该论文介绍了一种用于深度学习的假设空间,利用深度神经网络(DNNs)构建了一个再生内核 Banach 空间(RKBS),并研究了正则化学习和最小插值问题。通过建立学习模型的 representer 定理,证明了解可以表示为有限数量的内核会话的线性组合。
🎯
关键要点
-
该论文介绍了一种用于深度学习的假设空间。
-
利用深度神经网络(DNNs)构建再生内核 Banach 空间(RKBS)。
-
DNN 被视为物理变量和参数变量的函数。
-
考虑 DNN 的原始集合,基于权重矩阵和偏差的集合。
-
通过弱 * 拓扑完成原始 DNN 集合的线性张量,构建物理变量的函数的 Banach 空间。
-
证明所构建的 Banach 空间是再生内核 Banach 空间(RKBS)。
-
研究 RKBS 中的正则化学习和最小插值问题。
-
建立学习模型的 representer 定理,证明解可以表示为有限数量的内核会话的线性组合。
🏷️
标签
➡️