少样本意图分类与槽位填充的表示和知识分离
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文提出了少样本意图分类和槽填充的新任务,并通过三个公共数据集的少样本分割建立基准。研究发现,元学习算法和原型网络算法在基准上优于fine-tuning基线。预训练的语言模型与这些小样本算法相结合,可以进一步提高模型性能。
🎯
关键要点
- 提出了一种新的少样本学习任务:少样本意图分类和槽填充。
- 研究旨在提高意图分类和槽填充模型在超低资源场景中的性能。
- 通过定义 ATS、TOP 和 Snips 三个公共数据集的少样本分割建立基准。
- 元学习算法(MAML)和原型网络算法在基准上优于 fine-tuning 基线。
- 预训练的语言模型(如 ELMo 和 BERT)与小样本算法结合可进一步提高模型性能。
➡️