为何双曲神经网络有效?关于分层表示能力的研究

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

通过研究深度双曲神经网络(HNNs)的表示容量,证明了HNNs能够将任何有限加权树嵌入到带有给定曲率的双曲空间中。与欧几里得空间的嵌入相比,HNN的网络复杂性较低。

🎯

关键要点

  • 通过 ReLU 激活函数研究深度双曲神经网络(HNNs)的表示容量。
  • HNNs 能够将任何有限加权树以 ε-等度量嵌入到至少二维的带有给定曲率 κ<0 的双曲空间中。
  • 实现嵌入的 HNN 上建立了网络复杂性的严格上界。
  • 实现图形表示的 HNN 的网络复杂性与表示保真度/失真率无关。
  • 与在嵌入具有 $L>2^d$ 个叶子的树到 $d$ 维欧几里得空间时的失真下界进行了对比,证明至少为 Ω(L^{1/d})。
  • 失真下界与定义 MLP 的深度、宽度和激活函数无关。
➡️

继续阅读