少即多 —— 利用结构稀疏性构建简约的多任务模型

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本研究提出了一种基于可解释的attention mechanism的网络修剪方法,能在保持准确率的前提下实现模型压缩和加速,适用于各种深度神经网络。实验证明,在Cifar-100数据集上取得了最高的稀疏度和加速比,与最佳方法相比准确率相当;在MNIST和LeNet架构上也取得了最高的稀疏度和加速比。

🎯

关键要点

  • 提出了一种基于可解释的attention mechanism的网络修剪方法。

  • 该方法能在保持准确率的前提下实现模型压缩和加速。

  • 适用于各种结构的深度神经网络。

  • 在Cifar-100数据集上取得了最高的稀疏度和加速比,准确率与最佳方法相当。

  • 在MNIST和LeNet架构上也取得了最高的稀疏度和加速比。

➡️

继续阅读