通过自蒸馏减少在线类别增量学习中的灾难性遗忘

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文提出了一个因果框架,解释了类增量学习中的灾难性遗忘的原因,并提出了一种新的蒸馏方法,该方法能够显著提高目前各类增量学习方法的性能。

🎯

关键要点

  • 提出了一个因果框架,解释类增量学习中的灾难性遗忘原因。
  • 提出了一种新的蒸馏方法,与现有抗遗忘技术正交。
  • 发现特征/标签蒸馏存储效率高,但因果效应与端到端特征学习优点不符。
  • 数据回放能够保留因果效应,建议使用基于Colliding Effect的因果蒸馏方法。
  • 该方法在不损失回放存储的情况下缓解类增量学习中的遗忘效应。
  • 实验结果表明该方法显著提高了各类增量学习方法的性能。
➡️

继续阅读