本研究重新审视了连续学习基准,通过考虑表示忘却的概念来解释最优线性分类器表现的差异。研究发现,在没有明确控制忘却的情况下,模型表示会经历较小的表示忘却,并且有时可以与明确控制忘却的方法相当。研究还展示了表示忘却如何推动我们对连续学习中模型容纳能力和损失函数影响的认识。基于这些结果,提出了一个简单但竞争力强的方法,即通过标准的有监督对比学习来不断学习表示。
本研究重新审视了连续学习基准,发现模型表示通常会经历较小的表示忘却,并展示了其对模型容纳能力和损失函数的影响。研究提出了一个简单但竞争力强的方法。
本研究重新审视了连续学习基准,发现模型表示会经历较小的表示忘却,并探讨了其对模型容纳能力和损失函数的影响。研究提出了一种简单但竞争力强的方法,即通过有监督对比学习来学习表示。
完成下面两步后,将自动完成登录并继续当前操作。