Fine-Tuning Large Language Models
原文英文,约1500词,阅读约需6分钟。发表于: 。这段时间非常火的topic,大模型参数多,占用体积大训练困难,而且一般需要微调技术用于特定任务.
本文介绍了使用PEFT微调大型语言模型的两种方法,一种是使用PeftModel类型,另一种是使用AutoPeftModelForCausalLM。使用PeftModel类型的方法通过pipeline进行测试,使用AutoPeftModelForCausalLM的方法需要先使用model.merge_and_unload()进行合并。最终,两种方法都可以使用save_pretrained()和tokenizer.save_pretrained()保存模型和tokenizer。