大规模神经架构的反向传播压缩:结构化激活剪枝

通过在深度神经网络中采用结构化修剪和块稀疏性操作,目前的研究旨在通过减少激活值的内存消耗来减小 GPU 内存需求,从而降低大规模模型训练的要求并解决生态环境问题。

该研究设计了一种稀疏训练过程,通过考虑激活的最终位置来诱导半结构化激活稀疏性。在图像分类和目标检测任务中评估,结果显示该方法在ResNet18模型上实现了1.25倍的加速,仅有1.1%的最小精度降低。与结构化剪枝方法相结合,该方法在延迟和准确性之间取得了平衡,优于仅采用结构化剪枝技术的模型。

原文中文,约300字,阅读约需1分钟。发表于:
阅读原文