少即多 —— 利用结构稀疏性构建简约的多任务模型
本研究提出了一种基于可解释的attention mechanism的网络修剪方法,能在保持准确率的前提下实现模型压缩和加速,适用于各种深度神经网络。实验证明,在Cifar-100数据集上取得了最高的稀疏度和加速比,与最佳方法相比准确率相当;在MNIST和LeNet架构上也取得了最高的稀疏度和加速比。
原文中文,约200字,阅读约需1分钟。
本研究提出了一种基于可解释的attention mechanism的网络修剪方法,能在保持准确率的前提下实现模型压缩和加速,适用于各种深度神经网络。实验证明,在Cifar-100数据集上取得了最高的稀疏度和加速比,与最佳方法相比准确率相当;在MNIST和LeNet架构上也取得了最高的稀疏度和加速比。