课程数据蒸馏
原文中文,约200字,阅读约需1分钟。发表于: 。本论文提出了一个基于课程设置的数据集蒸馏框架,通过将从简单到复杂的课程进行逐步蒸馏,合理处理合成图像的生成和评估,进一步利用对抗优化改进图像的代表性,提高其在不同神经网络体系结构下的泛化能力和抗噪性,实现了大规模数据集蒸馏的新突破。
我们提出了一种结合潜在空间扩散模型和数据集精炼的潜在数据集精炼方法(LD3M),在多个ImageNet子集和高分辨率图像上实验表明,LD3M相比最先进的精炼技术,在1个和10个图像每类的情况下,提高了最高4.8个百分点和4.2个百分点的性能。