本文研究了利用掩码softmax方法解决连续学习中的遗忘与保留困难,并提出了一种保持置信度分布的方法。该方法在整体性能上优于最新方法,为基于回放的连续学习提供了坚实基础。
本文提出了一种利用掩码 softmax 方法的连续学习方法,通过保持置信度分布的方法提高了稳定性,解决了遗忘与保留准确决策的困难。相较于最新方法,该方法在使用零或少量内存时表现更好,为基于回放的连续学习提供了坚实基础。
完成下面两步后,将自动完成登录并继续当前操作。