CE-CoLLM:通过云-边缘协作实现高效和自适应的大型语言模型

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本研究提出了Edge-LLM框架,通过逐层剪枝和量化策略提高大型语言模型的调整效率,实现计算加速2.92倍,内存减少4倍,同时保持任务准确性。

🎯

关键要点

  • 本研究提出了Edge-LLM框架,旨在提高大型语言模型的调整效率。
  • Edge-LLM通过逐层剪枝和量化策略减少计算开销。
  • 采用自适应层调整和投票方案减少反向传播深度,从而降低内存开销。
  • 引入互补硬件调度策略以处理不规则计算模式,实现高效计算和数据移动。
  • 实验结果表明,Edge-LLM在保持任务准确性的情况下,实现了2.92倍的计算加速和4倍的内存减少。
➡️

继续阅读