TinyLlama:又小又强的LLM

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

TinyLlama是一款参数只有1.1B的小型强大模型,4比特版本只需550M内存运行。它可用于大型模型的speculative decoding、边缘装置上的离线实时机器翻译和游戏中的实时对话生成。目前正在训练过程中,使用16块A100-40G的GPU,在90天内完成3万亿tokens的训练。

🎯

关键要点

  • TinyLlama是一款参数只有1.1B的小型强大模型。
  • 4比特版本只需550M内存运行。
  • TinyLlama可用于大型模型的speculative decoding。
  • 它可以在边缘装置上进行离线实时机器翻译。
  • TinyLlama在游戏中可实现实时对话生成。
  • 训练于9月1日启动,目前正在进行中。
  • 使用16块A100-40G的GPU,计划在90天内完成3万亿tokens的训练。
➡️

继续阅读