信息论视角下缓解连续文本分类中的灾难性遗忘
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
该文章介绍了一种新的持续文本分类方法 InfoCL,通过快慢对比学习和当前-过去对比学习来进行互信息最大化,有效地减轻了遗忘问题,并在三个文本分类任务上达到了最先进的性能。
🎯
关键要点
-
该文章介绍了一种新的持续文本分类方法 InfoCL。
-
InfoCL 通过快慢对比学习和当前-过去对比学习进行互信息最大化。
-
该方法有效减轻了遗忘问题。
-
InfoCL 在三个文本分类任务上达到了最先进的性能。
-
研究侧重于类增量设置下的文本分类。
-
发现信息瓶颈的压缩效应导致了对类似类别的混淆。
-
InfoCL 采用对抗性记忆增强策略来缓解重放的过拟合问题。
-
代码公开可用于此 URL。
➡️