基于狄利克雷生成的排练的持续学习
本文提出了一种名为Dirichlet连续学习(DCL)的生成排练策略,用于解决数据驱动任务导向对话系统中的增量学习问题。DCL利用Dirichlet分布建模潜在先验变量,指导伪样本的生成。同时,介绍了一种基于逻辑的知识蒸馏方法,称为Jensen-Shannon知识蒸馏(JSKD),在伪样本生成期间增强了知识传递。实验证实了该方法在意图检测和槽填充任务上的有效性,并胜过了最先进的方法。
原文中文,约400字,阅读约需1分钟。