该研究提出了一种新方法EoRA,解决压缩模型中的误差补偿问题,能够快速优化并显著提升LLaMA2/3模型的性能,为大语言模型的部署提供有效工具。
我们提出了一种新颖的通道修剪方法,通过评估通道对潜在向量扰动的敏感性,增强了压缩模型中样本的多样性。该方法在各种数据集中显著提升了样本的多样性,并且在 FID 得分方面超过了最先进的方法,且只需一半的训练迭代次数。
Segmind开源了SD-Small和SD-Tiny的知识蒸馏代码和权重,这些压缩模型在图像质量上与基础模型相当,但参数减少了35%和55%。他们还提供了蒸馏代码和预训练检查点,这些模型比原始模型快100%。然而,这些模型目前不适合生产环境,适合特定概念/风格的微调或LoRA训练。他们邀请开源社区帮助改进和推广这些模型,并欢迎用户在GitHub上给他们一个星星。
完成下面两步后,将自动完成登录并继续当前操作。