块状化:即使不更改任务,在连续学习中遗忘也很重要
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
本文研究了神经网络持续学习中的遗忘问题,提出了遗忘优先微调和$k$-FPF两种方法,能显著提高效果并降低计算成本。实验表明$k$-FPF进一步提高了效率而不降低准确性。
🎯
关键要点
- 研究了神经网络持续学习中的遗忘问题,特别是分布漂移导致的遗忘。
- 分析了神经网络中哪些模块更容易被遗忘。
- 提出了遗忘优先微调(FPF)和基于周期触发的 $k$-FPF 两种方法。
- FPF 方法在增量 CL 基准测试中显著提高了效果。
- $k$-FPF 方法进一步提高了效率而不降低准确性。
- 两种方法显著降低了计算成本。
➡️