优化和微调大型语言模型用于城市更新
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本研究通过自动生成问答数据集并使用联合微调方法提高了LLM在知识问答任务上的性能。与LoRA微调相比,该方法使测试中的Bleu和Rouge指标提高了约5%,与微调前的模型相比,提高了约15%-20%。研究证明了使用Prefix和LoRA的联合微调方法对ChatGLM的有效性和优越性,为LLM在城市更新任务上的微调提供了新方法。
🎯
关键要点
- 本研究通过自动生成问答数据集提高LLM在知识问答任务上的性能。
- 使用联合微调方法,Bleu和Rouge指标提高了约5%。
- 与微调前的模型相比,Bleu和Rouge指标提高了约15%-20%。
- 研究证明了Prefix和LoRA的联合微调方法对ChatGLM的有效性和优越性。
- 为LLM在城市更新任务上的微调提供了新方法。
➡️