深度学习还不如浅层网络?RL教父Sutton持续反向传播算法登Nature

深度学习还不如浅层网络?RL教父Sutton持续反向传播算法登Nature

💡 原文日文,约4400字,阅读约需11分钟。
📝

内容提要

研究发现,标准的深度学习方法在持续学习中失去可塑性,提出了持续反向传播算法来保持可塑性,实验结果表明其能提高网络性能。

🎯

关键要点

  • 标准深度学习方法在持续学习中失去可塑性。
  • 提出了持续反向传播算法以保持可塑性。
  • 研究使用ImageNet数据集展示可塑性丧失。
  • 持续反向传播算法通过随机重新初始化低效单元来维持可塑性。
  • 研究发现,流行方法如Adam和Dropout增加了可塑性损失。
  • L2正则化在许多情况下减少了可塑性损失。
  • 持续反向传播结合了传统反向传播和选择性重新初始化。
  • 在CIFAR-100的类别增量学习中,模型逐步学习更多类别。
  • 研究通过网格搜索确定超参数以优化性能。
  • 持续反向传播在100个类别中的最终准确率为76.13%。
➡️

继续阅读