选择与概括:选择性双教师知识迁移用于视觉语言模型的持续学习

💡 原文中文,约700字,阅读约需2分钟。
📝

内容提要

大规模视觉语言模型(VLMs)展示了对未见域数据具有强大的零样本泛化能力。为了解决适应预训练的VLMs时容易忘记以前学到的知识并降低零样本分类能力的问题,提出了一种选择性双教师知识迁移框架,通过测量双教师VLMs的特征差异来执行选择性知识蒸馏机制,以缓解灾难性遗忘并保留零样本能力。实验证明该框架对于防止灾难性遗忘和零样本退化的最新持续学习方法是有利的。

🎯

关键要点

  • 大规模视觉语言模型(VLMs)在未见域数据上具有强大的零样本泛化能力。
  • 适应预训练的VLMs时,容易忘记以前学到的知识,导致零样本分类能力下降。
  • 提出了一种选择性双教师知识迁移框架,以保留以前学到的知识和零样本能力。
  • 该框架利用精细调整和原始预训练VLMs作为双教师,通过测量特征差异执行选择性知识蒸馏机制。
  • 选择性双教师知识蒸馏有助于缓解灾难性遗忘,同时保留零样本能力。
  • 通过基准数据集的实验,证明该框架对防止灾难性遗忘和零样本退化的持续学习方法是有利的。
🏷️

标签

➡️

继续阅读