马尔可夫范畴中的随机神经网络对称化
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
研究发现,尽管已知的问题对称被纳入神经网络中,但实际学习等变神经网络的复杂度呈指数级增长,因此通过梯度下降学习等变神经网络仍然是困难的。
🎯
关键要点
- 研究通过梯度下降探讨学习等变神经网络的问题。
- 已知的问题对称被纳入神经网络中,改善了学习流程的性能。
- 学习理论研究表明,学习浅层全连接网络的复杂度呈指数级增长。
- 提出的问题是已知的问题对称是否能减轻学习等变神经网络的困难,答案是否定的。
- 给出了浅层图神经网络、卷积网络等的下界,这些下界在相关输入维度中以超多项式或指数级增长。
- 尽管注入了显著的归纳偏差,学习等变神经网络的完整函数类仍然是困难的。
➡️