本研究提出了一种解决大型语言模型微调中对人类注释数据或GPT-4生成数据的依赖问题的方法。通过将网络爬取数据与高质量数据对齐,自动创建配对训练数据集,提高微调质量。实验结果表明,经过模型转换的数据训练效果优于仅使用高质量数据,平均提升9.4%。7B模型在表现上超过了多个32B以上的开源模型及知名的闭源模型如GPT-3.5。
完成下面两步后,将自动完成登录并继续当前操作。