本文提出了一种基于知识蒸馏的模型压缩框架,无需预训练权重,同时学习和蒸馏集成知识。实验证明,该框架在CIFAR100数据集上显著提高了ResNet110和DenseNet-BC模型的相对精度。
完成下面两步后,将自动完成登录并继续当前操作。