研究发现,在使用两层神经网络进行多指标目标函数学习时,多次梯度下降可以显著改变学习效果。相比单次梯度下降,多次梯度下降能突破目标函数的信息和跃迁限制,实现与目标子空间的重叠。即使不满足阶梯特性,网络也能在两个时间步骤内有效学习。研究通过动态均场理论分析,并验证了理论的有效性。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: