重访连续学习中的稳定性问题的 Softmax 掩蔽

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本文提出了一种利用掩码 softmax 方法的连续学习方法,通过保持置信度分布的方法提高了稳定性,解决了遗忘与保留准确决策的困难。相较于最新方法,该方法在使用零或少量内存时表现更好,为基于回放的连续学习提供了坚实基础。

🎯

关键要点

  • 提出了一种利用掩码 softmax 方法的连续学习方法。
  • 该方法通过保持置信度分布提高了稳定性。
  • 解决了连续学习中的遗忘与保留准确决策的困难。
  • 相较于最新方法,该方法在使用零或少量内存时表现更好。
  • 为基于回放的连续学习提供了坚实基础。
➡️

继续阅读