Continuous Knowledge-Preserving Decomposition for Few-Shot Continual Learning

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本文提出了持续知识保护分解框架(CKPD-FSCIL),旨在解决少样本类增量学习中的灾难性遗忘问题。该框架通过将模型权重分解为知识敏感组件和冗余容量组件,既能适应新能力,又能有效保护已有知识。实验结果表明,CKPD-FSCIL在多个基准测试中优于现有方法。

🎯

关键要点

  • 提出了持续知识保护分解框架(CKPD-FSCIL),旨在解决少样本类增量学习中的灾难性遗忘问题。
  • CKPD-FSCIL通过将模型权重分解为知识敏感组件和冗余容量组件,既能适应新能力,又能有效保护已有知识。
  • 实验结果表明,CKPD-FSCIL在多个基准测试中优于现有方法。
➡️

继续阅读