本研究提出了反事实推理决策变换器(CRDT),解决了决策变换器在离线数据集上因数据不足导致的性能问题。实验结果表明,CRDT在数据受限和动态变化的情况下优于传统方法,展示了反事实推理在强化学习中的潜力。
本研究提出了一种基于扩散的轨迹分支生成方法,解决了决策变换器在离线强化学习中的次优轨迹收敛问题,提升了策略学习效果。实验结果显示,该方法在D4RL基准测试中优于现有的序列建模方法。
本研究探讨了决策变换器在线微调不足的问题,指出传统回报期望计算的负面影响。实验结果显示,加入TD3梯度显著提升了微调性能,尤其在低奖励离线数据预训练时,为决策变换器的改进提供了新思路。
本研究提出了一种回报增强决策变换器(RADT)方法,旨在利用源域数据提升目标域的策略学习。实验结果表明,该方法在非动态强化学习中优于动态规划。
本文介绍了一种通用的离线学习方法,通过考虑输入特征的计算成本,并将成本约束纳入到决策变换器的扩展中,从而在推断过程中限制其成本,使模型能够在每个时间步动态选择最佳输入特征。通过实验验证了该方法的有效性,并表明相比传统方法,它能够在使用较少计算资源的情况下实现类似的性能。
完成下面两步后,将自动完成登录并继续当前操作。