Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番

💡 原文中文,约2900字,阅读约需7分钟。
📝

内容提要

清华大学刘知远团队提出了大模型的“密度定律”,指出模型能力每100天翻一倍,揭示了AI时代电力、算力与智力的快速增长。研究表明,模型推理成本显著降低,新模型不断涌现,推动了端侧智能的发展。

🎯

关键要点

  • 清华大学刘知远团队提出大模型的密度定律,模型能力每100天翻一倍。
  • 密度定律揭示了AI时代电力、算力与智力的快速增长趋势。
  • 能力密度是衡量大模型性价比的新指标,定义为有效参数量与实际参数量的比值。
  • 研究发现,模型推理成本显著降低,推理开销随时间指数级下降。
  • 自ChatGPT发布以来,大模型能力密度加速增强,密度增强速度增加50%。
  • 芯片电路密度与模型能力密度的交汇揭示了端侧智能的巨大潜力。
  • 现有模型压缩技术未必能提高模型密度,后训练不充分可能导致能力密度下降。
  • 模型高性价比的有效期不断缩短,盈利窗口短暂。
  • AI时代的三大核心引擎——电力、算力与智力,密度都在快速增长。
  • 随着模型能力密度的提升,AI技术的可持续发展将有无限可能,推动“AI无处不在”的愿景。
➡️

继续阅读