小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究提出了一种无模型演员-评论家算法,旨在解决离线强化学习中的分布外动作问题。通过引入梯度多样性惩罚和可调行为克隆项,提升了训练的稳定性和准确性。实验结果表明,该算法在D4RL MuJoCo基准上表现优异。

Offline Reinforcement Learning with SALE and Integrated Q-Networks

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-07T00:00:00Z

本研究提出了一种新框架ACL-QL,旨在解决离线强化学习中Q值过度估计导致的保守政策问题。实验结果表明,ACL-QL在D4RL基准测试中表现优异,显著提升了学习的有效性和安全性。

ACL-QL: Adaptive Conservative Level Q-Learning in Offline Reinforcement Learning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-22T00:00:00Z

本研究提出了一种基于扩散的轨迹分支生成方法,解决了决策变换器在离线强化学习中的次优轨迹收敛问题,提升了策略学习效果。实验结果显示,该方法在D4RL基准测试中优于现有的序列建模方法。

Enhancing Decision Transformers through Diffusion-based Trajectory Branch Generation

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-18T00:00:00Z

该文介绍了一种离线强化学习方法,利用先前经验学习政策,解决了使用行为克隆的限制。作者提出了一种新方法,将状态重构特征学习纳入扩散策略中,以解决分布外泛化问题。作者在二维多模态上下文强化学习环境和 D4RL 基准任务上评估了该模型的性能,实现了最先进的结果。

超越均匀采样:利用不平衡数据集的离线强化学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-06T00:00:00Z

研究提出了 Policy-guided Offline RL 算法,能够在训练时将想法分解为指导策略和执行策略,并通过指导策略来指导执行策略以实现状态组合性。该算法在 D4RL 上展示了最高效的性能,并可以通过改变指导策略来适应新的任务。

融合模仿学习和强化学习以实现鲁棒的策略改进

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-03T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码