TinyLlama:又小又强的LLM
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
TinyLlama是一款参数只有1.1B的小型强大模型,4比特版本只需550M内存运行。它可用于大型模型的speculative decoding、边缘装置上的离线实时机器翻译和游戏中的实时对话生成。目前正在训练过程中,使用16块A100-40G的GPU,在90天内完成3万亿tokens的训练。
🎯
关键要点
- TinyLlama是一款参数只有1.1B的小型强大模型。
- 4比特版本只需550M内存运行。
- TinyLlama可用于大型模型的speculative decoding。
- 它可以在边缘装置上进行离线实时机器翻译。
- TinyLlama在游戏中可实现实时对话生成。
- 训练于9月1日启动,目前正在进行中。
- 使用16块A100-40G的GPU,计划在90天内完成3万亿tokens的训练。
➡️