使用 Docker 和 Alpaca LoRA 对 LLaMA 65B 大模型进行 Fine-Tune

💡 原文中文,约11700字,阅读约需28分钟。
📝

内容提要

这篇文章中,我们来聊聊如何使用两张显卡来进行 LLaMA 65B 大模型的微调工作,以及如何在一张普通的 4090 家用显卡上,只花几个小时,就能够完成 7B 模型的微调。

🏷️

标签

➡️

继续阅读