本研究提出了一个新的框架,利用奖励建模方法和模拟高质量演示来训练对齐语言模型,避免了对已对齐的LLMs的依赖。实验结果表明,该模型在对InstructGPT或人工注释指令训练的开放源代码模型中表现良好。在使用GPT-4作为评判员的A/B测试中,7B大小的模型表现优异,平均获胜率约为75%。
完成下面两步后,将自动完成登录并继续当前操作。