该研究提出了一种新的回放方法——平衡在线增量学习(BOIL),旨在解决在线类增量学习中旧类与新类知识的平衡问题。BOIL通过包容性训练分离策略和双分类器有效整合知识,增强知识传递。实验结果表明,BOIL在保持高塑性和稳定性方面优于现有方法。
本研究提出了一种新方法Diffusion-FSCIL,结合扩散模型与少量样本类增量学习,旨在解决数据稀缺和灾难性遗忘问题。该方法通过提取互补的扩散特征,在新类别适应和已有类别性能保持上优于现有方法。
本文提出了一种模型手术(MOS)方法,旨在解决类增量学习中的信息遗忘问题。通过训练特定适配器和自我修正机制,MOS有效减轻了模型的遗忘现象,并在七个基准数据集上取得了优异的实验结果。
本研究针对类增量学习中的任务混淆问题,提出了新的数学框架和不可能性定理,证明区分性建模无法实现最优类增量学习。同时,提出可行性定理,表明生成性建模能够克服任务混淆,优化类增量学习策略。
本研究提出一种新方法,通过调整训练权重和改变梯度方向,减少类增量学习中敏感群体的遗忘问题,提升群体公平性。实验表明,该方法在真实数据集上比现有方法更好地平衡准确性和公平性。
本文提出了一个因果框架,解释了类增量学习中的灾难性遗忘的原因,并提出了一种新的蒸馏方法,该方法能够显著提高目前各类增量学习方法的性能。
研究发现,使用简单组件和平衡的损失函数组合可以解决神经网络在新任务上的遗忘问题,并通过正则化程序改进了类增量学习的性能。在CIFAR-100和ImageNet上取得了国际领先的成果。
MIND是一种参数隔离方法,通过引入两种不同的蒸馏过程和优化网络内部的BachNorm层,提高了没有重播数据的解决方案的性能,在几个广泛研究的数据集上达到了最先进的结果,对于没有重播数据的类增量学习和域增量学习,在资源受限环境中表现出卓越的性能。
该研究发现,类增量学习 (CIL) 的问题可以分解为任务内预测 (WP) 和任务 ID 预测 (TP) 两个子问题,其中 TP 与分布外检测 (OOD) 相关联。优秀的 WP 和 TP 或 OOD 检测对于良好的 CIL 表现是必要且充分的,其中 TIL 就是 WP。研究还设计了新的 CIL 方法,其在 CIL 和 TIL 两个设置中性能均优于强基线。
完成下面两步后,将自动完成登录并继续当前操作。