复杂性与对齐之间的内在关系初探
原文中文,约400字,阅读约需1分钟。发表于: 。通过在指令语义树中添加指定数量的节点以增加指令数据的复杂性,我们的研究发现增加复杂性可以持续提升性能,而少数复杂指令优于多样化的简单指令,课程指令调整可能达不到期望的结果。
本文介绍了一种使用大型语言模型(LLM)替代人类创建指令数据的方法,通过使用Evol-Instruct逐步重写初始指令集,生成更复杂的指令,并混合生成的指令数据以调整LLaMA模型,得到WizardLM模型。人类评估证明,Evol-Instruct生成的指令优于人工创建的指令,尤其在高复杂度方面,WizardLM模型的输出被认为比OpenAI ChatGPT更好。研究表明,用人工智能生成的指令进行微调是提升大型语言模型的有前途的方向。