少即多 —— 利用结构稀疏性构建简约的多任务模型
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
本研究提出了一种基于可解释的attention mechanism的网络修剪方法,能在保持准确率的前提下实现模型压缩和加速,适用于各种深度神经网络。实验证明,在Cifar-100数据集上取得了最高的稀疏度和加速比,与最佳方法相比准确率相当;在MNIST和LeNet架构上也取得了最高的稀疏度和加速比。
🎯
关键要点
-
提出了一种基于可解释的attention mechanism的网络修剪方法。
-
该方法能在保持准确率的前提下实现模型压缩和加速。
-
适用于各种结构的深度神经网络。
-
在Cifar-100数据集上取得了最高的稀疏度和加速比,准确率与最佳方法相当。
-
在MNIST和LeNet架构上也取得了最高的稀疏度和加速比。
🏷️
标签
➡️