本文研究了基于偏好的强化学习中初始奖励模型的高度变异性问题,并提出了一种数据驱动的奖励初始化方法,该方法不会增加人在环中的额外成本,同时只会对 PbRL 代理造成可忽略的成本,通过该方法初始化的奖励模型在状态空间中是均匀的,这减少了多次运行中方法性能的变异性,并且相对于其它初始方法提高了方法的整体性能。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: