本研究探讨了离线强化学习中的超参数调优与模型选择问题,提出了一种新方法,通过选择不同的值函数或动态模型来优化目标策略。新型选择器LSTD-Tournament在实证性能上表现优异,具有广泛的应用潜力。
本研究使用卷积神经网络作为函数逼近器,研究了神经策略镜像下降算法的样本复杂性。通过观察高维度环境具有低维结构的经验现象,我们证明在每次迭代中,值函数和策略都可以很好地近似于卷积神经网络。因此,通过适当选择网络大小和超参数,NPMD 可以通过大约 O (ε^(-d/α-2)) 个样本找到一个 ε- 最优策略,从而解释深度策略算法的有效性。
完成下面两步后,将自动完成登录并继续当前操作。