本研究提出了一种基于可解释的attention机制的网络修剪方法,能在保持准确率的前提下实现模型压缩和加速。实验证明,在Cifar-100数据集上取得了最高的稀疏度和加速比,与最佳方法相比准确率相当;在MNIST和LeNet架构上也取得了最高的稀疏度和加速比。
完成下面两步后,将自动完成登录并继续当前操作。