本研究提出了一种示例屏蔽框架,旨在解决多模态增量学习中的信息处理与知识学习冲突,降低存储需求并提高旧知识的重放效率。实验结果表明,该框架在有限内存条件下能更有效地防止灾难性遗忘。
完成下面两步后,将自动完成登录并继续当前操作。