重访连续学习中的稳定性问题的 Softmax 掩蔽
原文中文,约200字,阅读约需1分钟。发表于: 。利用掩码 softmax 方法,针对连续学习中逐渐遗忘与保留的准确决策所存在的困难,本文重新研究了它对稳定性的影响,并提出了一个利用其保持置信度分布的方法,相较于最新方法在使用零或少量内存时,我们的方法在整体性能上表现更好,为基于回放的连续学习奠定了简单而有效的坚实基础。
本文提出了一种利用掩码 softmax 方法的连续学习方法,通过保持置信度分布的方法提高了稳定性,解决了遗忘与保留准确决策的困难。相较于最新方法,该方法在使用零或少量内存时表现更好,为基于回放的连续学习提供了坚实基础。