chatglm2-6b在P40上做LORA微调

💡 原文中文,约4100字,阅读约需10分钟。
📝

内容提要

本文介绍了使用chatglm2-6b模型在集团EA的P40机器上进行垂直领域的LORA微调。chatglm2-6b相比于chatglm有性能提升、更长的上下文、更高效的推理和更开放的协议。微调环境包括性能要求和镜像环境。LORA微调方法是冻结预训练模型权重参数,在加入额外的网络层并训练这些新增网络层参数。微调使用huggingface提供的peft工具。目前模型还在finetune中。

🎯

关键要点

  • 大模型技术应用广泛,chatglm2-6b在国内开源大模型中表现突出。
  • chatglm2-6b相比于chatglm有性能提升、上下文更长、推理更高效和协议更开放。
  • 微调环境包括性能要求和镜像环境,P40显卡支持chatglm2-6b的显存需求。
  • 使用docker镜像配置微调环境,需安装多种依赖包。
  • LORA微调方法通过冻结预训练模型参数并添加额外网络层进行训练。
  • huggingface提供的peft工具用于LORA微调,需注意本地模型加载路径。
  • 微调结果显示模型仍在finetune中,已完成一轮迭代。
🏷️

标签

➡️

继续阅读