DynST: 资源受限时空预测的动态稀疏训练

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本研究发现,在连续学习中,使用ERK初始化在低稀疏度下更有效利用主干网络,而在高稀疏度下使用均匀初始化更可靠。增长策略的性能取决于初始化策略和稀疏度程度。适应性是提升连续学习效果的有希望的方法。

🎯

关键要点

  • 连续学习是智能系统从数据流中顺序获取和保留知识的能力。
  • 本研究首次实证研究了动态稀疏训练(DST)在连续学习中的影响。
  • 在CIFAR100和miniImageNet数据集上,ERK初始化在低稀疏度下更有效利用主干网络。
  • 在高稀疏度下,均匀初始化展现出更可靠的性能。
  • 增长策略的性能依赖于初始化策略和稀疏度程度。
  • DST组成部分内的适应性是提升连续学习效果的有希望的方法。
➡️

继续阅读