本研究提出了一种无样例设置下的Class incremental learning方法,名为Rotation Augmented Distillation (RAD),通过只对新类进行监督来平衡可塑性和稳定性。实验证明RAD在无样例设置下表现接近顶级水平,并与现有方法进行了比较。
完成下面两步后,将自动完成登录并继续当前操作。