预训练视觉与语言变形器是少样本增量学习耠
原文中文,约400字,阅读约需1分钟。发表于: 。本文介绍了一种名为 PriViLege 的新型 FSCIL 框架,通过预训练的视觉和语言转换模型以及提示函数和知识蒸馏,有效地解决了 FSCIL 中的遗忘和过拟合问题,并获得了明显优于现有方法的结果。
本论文介绍了一种名为PL-FSCIL的新方法,通过信息提示和预训练视觉转换器模型解决Few-Shot Class-Incremental Learning的挑战。该方法在CIFAR-100和CUB-200等数据集上验证了有效性,展示了其在实际应用中的潜力。