本研究通过自动生成问答数据集并使用联合微调方法提高了LLM在知识问答任务上的性能。与LoRA微调相比,该方法使测试中的Bleu和Rouge指标提高了约5%,与微调前的模型相比,提高了约15%-20%。研究证明了使用Prefix和LoRA的联合微调方法对ChatGLM的有效性和优越性,为LLM在城市更新任务上的微调提供了新方法。
完成下面两步后,将自动完成登录并继续当前操作。