现代神经网络的修剪方法受到经典最优脑外科医生算法的启发。文章推导了该算法的数学基础,证明了正定矩阵的可逆性及其逆矩阵的正定性,并探讨了泰勒展开在神经网络中的应用。该算法通过选择最佳权重进行修剪,以最小化损失差异,优化过程使用拉格朗日乘子法。
本研究提出DART修剪方法,解决多模态大语言模型中视觉标记的计算开销问题。实验结果表明,DART在信息损失较小的情况下,能够修剪88.9%的视觉标记,并显著提高处理速度。
本研究探讨了变换器模型在时间序列预测中的高参数和计算资源需求,尤其是在低功耗设备上的应用。比较无结构和有结构的修剪方法后,发现某些模型在高稀疏度下仍能超越密集模型,但需要对修剪后的模型进行调整。
该研究提出了一种受脑神经启发的修剪方法,能够在保持准确性的同时将脉冲神经网络压缩90%。该方法基于神经科学理论识别重要神经元,并引入自适应修剪计划。
提出了一种名为Layer Collapse (LaCo)的逐层修剪方法,能够快速减小模型大小并保留模型结构。实验证明,在修剪比例为25-30%时,该方法能够保持超过80%的平均任务性能,优于现有的结构修剪方法。同时,后训练实验证实了该修剪方法有效继承了原始模型的参数,并从逐层相似性的角度讨论了提出该方法的动机。还评估了大型语言模型在不同修剪比例下的性能。
本论文介绍了LTMP学习阈值符号合并和修剪方法,通过动态确定合并和修剪的符号,降低计算视觉变换器所需的输入符号数量,实现了在降低速率的同时保持最先进的准确性,比先前的方法快一个数量级以上。
完成下面两步后,将自动完成登录并继续当前操作。