Generative Dataset Distillation Based on Self-Knowledge Distillation
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
该研究提出了一种新颖的生成数据集蒸馏方法,通过自我知识蒸馏提升预测准确性,并在logits标准化后进行分布匹配,实验结果优于现有方法。
🎯
关键要点
- 该研究提出了一种新颖的生成数据集蒸馏方法。
- 通过自我知识蒸馏提高预测对齐的准确性。
- 在分布匹配之前对logits进行了标准化处理。
- 实验结果表明,该方法优于现有的最先进方法。
- 该方法展现了更优的蒸馏性能。
➡️