基于狄利克雷生成的排练的持续学习
原文中文,约400字,阅读约需1分钟。发表于: 。近期的数据驱动任务导向对话系统在增量学习方面存在计算约束和耗时的问题,而连续学习试图通过避免密集的预训练来解决此问题,但它面临的问题是灾难性遗忘。本文提出了 Dirichlet 连续学习(DCL),这是一种新颖的基于生成的排练策略,用于连续学习。与传统上在条件变分自编码器(CVAE)中使用的高斯潜变量不同,DCL 利用 Dirichlet...
本文提出了一种名为Dirichlet连续学习(DCL)的生成排练策略,用于解决数据驱动任务导向对话系统中的增量学习问题。DCL利用Dirichlet分布建模潜在先验变量,指导伪样本的生成。同时,介绍了一种基于逻辑的知识蒸馏方法,称为Jensen-Shannon知识蒸馏(JSKD),在伪样本生成期间增强了知识传递。实验证实了该方法在意图检测和槽填充任务上的有效性,并胜过了最先进的方法。