关于对称性下的学习难度

💡 原文中文,约500字,阅读约需1分钟。
📝

内容提要

尽管已知的问题对称被纳入神经网络中,但学习等变神经网络仍然困难。研究发现,实际学习浅层全连接网络的复杂度呈指数级增长。

🎯

关键要点

  • 研究了学习等变神经网络的问题。
  • 已知的问题对称被纳入神经网络中,改善了学习性能。
  • 学习浅层全连接网络的复杂度呈指数级增长。
  • 提出的问题是已知的问题对称是否足以减轻学习等变神经网络的困难。
  • 研究结果表明,答案是否定的。
  • 给出了浅层图神经网络、卷积网络等的下界,复杂度以超多项式或指数级增长。
  • 尽管注入了显著的归纳偏差,学习等变神经网络仍然困难。
➡️

继续阅读