本研究通过人类反馈学习奖励模型,并用规则化强化学习优化大型语言模型。为解决对齐方法中对比损失依赖对数似然且不考虑长度变化的问题,引入了一种长度不变的平均算子,与最佳策略算子结合,对对数似然进行平均化。实验证明,该方法在生成文本长度和评分之间存在权衡。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: