DSLR:多样性增强和结构学习的基于重演的图连续学习
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文介绍了Dirichlet连续学习(DCL)方法,用于解决对话系统中的计算约束和耗时问题。DCL利用Dirichlet分布建模先验变量,指导伪样本生成,并引入Jensen-Shannon知识蒸馏方法。实验证实了该方法在意图检测和槽填充任务上的有效性,超过了最先进的方法。
🎯
关键要点
- 数据驱动任务导向对话系统在增量学习方面存在计算约束和耗时的问题。
- 连续学习试图通过避免密集的预训练来解决计算约束,但面临灾难性遗忘的问题。
- 提出了Dirichlet连续学习(DCL),一种基于生成的排练策略,用于连续学习。
- DCL利用Dirichlet分布建模潜在先验变量,捕捉先前任务的句子级特征。
- 引入Jensen-Shannon知识蒸馏(JSKD),增强伪样本生成期间的知识传递。
- 实验证实DCL在意图检测和槽填充任务上的有效性,超过了最先进的方法。
🏷️
标签
➡️