为何双曲神经网络有效?关于分层表示能力的研究
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
通过研究深度双曲神经网络(HNNs)的表示容量,证明了HNNs能够将任何有限加权树嵌入到带有给定曲率的双曲空间中。与欧几里得空间的嵌入相比,HNN的网络复杂性较低。
🎯
关键要点
- 通过 ReLU 激活函数研究深度双曲神经网络(HNNs)的表示容量。
- HNNs 能够将任何有限加权树以 ε-等度量嵌入到至少二维的带有给定曲率 κ<0 的双曲空间中。
- 实现嵌入的 HNN 上建立了网络复杂性的严格上界。
- 实现图形表示的 HNN 的网络复杂性与表示保真度/失真率无关。
- 与在嵌入具有 $L>2^d$ 个叶子的树到 $d$ 维欧几里得空间时的失真下界进行了对比,证明至少为 Ω(L^{1/d})。
- 失真下界与定义 MLP 的深度、宽度和激活函数无关。
➡️