神经再生核泛函空间及深度网络的表示定理

💡 原文约400字/词,阅读约需1分钟。
📝

内容提要

该论文介绍了一种用于深度学习的假设空间,利用深度神经网络(DNNs)构建了一个再生内核 Banach 空间(RKBS),并研究了正则化学习和最小插值问题。通过建立学习模型的 representer 定理,证明了解可以表示为有限数量的内核会话的线性组合。

🎯

关键要点

  • 该论文介绍了一种用于深度学习的假设空间。

  • 利用深度神经网络(DNNs)构建再生内核 Banach 空间(RKBS)。

  • DNN 被视为物理变量和参数变量的函数。

  • 考虑 DNN 的原始集合,基于权重矩阵和偏差的集合。

  • 通过弱 * 拓扑完成原始 DNN 集合的线性张量,构建物理变量的函数的 Banach 空间。

  • 证明所构建的 Banach 空间是再生内核 Banach 空间(RKBS)。

  • 研究 RKBS 中的正则化学习和最小插值问题。

  • 建立学习模型的 representer 定理,证明解可以表示为有限数量的内核会话的线性组合。

➡️

继续阅读