小贡献,小网络:基于相对重要性的高效神经网络剪枝
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文提出一种新方法,通过评估神经元对损失的贡献,逐步去除贡献小的神经元,从而减少计算、能量和内存成本。在ImageNet上,该方法与真实重要性相关性高达93%。在ResNet-101上,删除30%的参数可减少40%的FLOPs,准确率仅下降0.02%,优于现有技术。
🎯
关键要点
- 提出一种新方法,通过评估神经元对损失的贡献逐步去除贡献小的神经元。
- 该方法可以减少计算、能量和内存成本。
- 在ImageNet上,该方法与真实重要性相关性高达93%。
- 在ResNet-101上,删除30%的参数可减少40%的FLOPs,准确率仅下降0.02%。
- 该方法在准确性、FLOPs和参数减少方面优于现有技术。
🏷️
标签
➡️