互动式连续学习:快思和慢思
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本研究提出了一种基于重放的持续文本分类方法InfoCL,通过互信息最大化和对抗性记忆增强策略,有效减轻了遗忘问题,并在三个文本分类任务上达到了最先进的性能。
🎯
关键要点
- 持续学习旨在避免旧任务遗忘并不断学习新知识。
- 本研究聚焦于类增量设置下的文本分类。
- 信息瓶颈的压缩效应导致了对类似类别的混淆。
- 提出了一种基于重放的持续文本分类方法InfoCL。
- InfoCL利用快慢对比学习和当前-过去对比学习进行互信息最大化。
- InfoCL采用对抗性记忆增强策略来缓解重放的过拟合问题。
- 实验结果表明InfoCL有效减轻了遗忘问题,并在三个文本分类任务上达到了最先进的性能。
- 代码公开可用于此 URL。
➡️