小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
LWD——结合“分布式隐式价值学习与基于QAM的策略提取”的RL策略框架,先离线RL预训练,后在线RL微调

本文讨论了在真实世界中部署通用机器人策略的挑战,提出了一种名为“部署中学习”(LWD)的框架,通过车队规模的离线到在线强化学习(RL)实现策略的持续改进。该方法结合离线数据和在线交互,利用多样化的部署经验,优化策略以适应新任务和环境。作者提出的分布式隐式价值学习(DIVL)和带有伴随匹配的Q学习(QAM)技术,旨在提高策略的稳定性和泛化能力,实现高效的后训练。

LWD——结合“分布式隐式价值学习与基于QAM的策略提取”的RL策略框架,先离线RL预训练,后在线RL微调

结构之法 算法之道
结构之法 算法之道 · 2026-04-30T14:53:08Z

本研究提出了Pass@K策略优化(PKPO)方法,解决了传统强化学习算法在样本独立优化中多样性不足的问题。该方法通过优化pass@k性能,提升了复杂任务中的学习能力。

Pass@K Policy Optimization: Addressing More Challenging Reinforcement Learning Problems

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-21T00:00:00Z

本文提出了一种新的训练方法J4R,旨在提升大语言模型(LLM)在复杂推理中的评估能力。通过等效初始状态组相对策略优化算法(EIS-GRPO),J4R在多样化推理设置中表现优异,超越了现有模型,显示出显著的性能提升和应用潜力。

J4R: Learning to Judge through Equivalent Initial State Group Relative Preference Optimization

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-19T00:00:00Z

本研究提出了一种新方法,解决强化学习代理在持续学习中如何保留和利用已有知识的挑战。通过整合策略优化与自编码器,系统能够有效识别新任务或环境,并在再次遇到已知环境时选择性检索相关知识。初步结果显示该方法在持续学习中具有潜力。

基于自编码器驱动的任务和新环境识别的持续强化学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-13T00:00:00Z

本研究探讨了受监控的马尔可夫决策过程(Mon-MDPs)中不可观察奖励的问题。通过函数逼近方法,智能体能够从可观察奖励的状态泛化到不可观察奖励的环境状态。为了解决过度泛化导致的奖励错误推断,提出了一种基于奖励不确定性的谨慎策略优化方法。

Generalization in Monitored Markov Decision Processes (Mon-MDPs)

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-13T00:00:00Z

本研究提出了一种组方差策略优化(GVPO)方法,以解决后训练中的不稳定性问题,确保奖励最大化与最优策略的一致性,从而提供可靠且灵活的后训练范式。

GVPO: Group Variance Policy Optimization for Post-Training of Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-28T00:00:00Z

本文讨论了群体相对策略优化(GRPO)及其与策略优化(PO)的关系,重点在于GRPO的优势计算方法。GRPO通过不同的响应来估计优势,简化了传统的价值模型需求。研究表明,优化策略需关注样本长度和优势计算,以提高推理模型的性能。

GRPO的新变体及其实现秘密

Josherich的博客
Josherich的博客 · 2025-03-24T00:00:01Z

本研究探讨了深度强化学习中如何从随机网络初始化学习最佳策略,提出了隐式策略学习器TIPL,利用Transformer进行轨迹建模,并通过自回归处理策略网络权重。实验结果表明,TIPL能够有效优化策略网络。

Can We Optimize Deep Reinforcement Learning Policy Weights for Trajectory Modeling?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-06T00:00:00Z
GUI Agent 中使用 RL 提升模型泛化能力

Digi-Q 是 DigiRL 的后续项目,旨在通过离线数据训练值函数和策略网络,以降低与 GUI 环境交互的成本。采用 TD 学习和微调 VLM,Digi-Q 在 AITW 上表现出稳定性和高效性,通过离线训练实现策略优化,避免了在线数据收集的方差问题。

GUI Agent 中使用 RL 提升模型泛化能力

NotionNext BLOG
NotionNext BLOG · 2025-03-03T00:00:00Z
行为正则化与顺序策略优化结合的离线多智能体学习算法

离线多智能体强化学习(MARL)旨在从预先收集的数据中学习最佳策略,但面临分布偏移和协调行为的挑战。中山大学与美团合作提出了样本内顺序策略优化(InSPO)算法,通过顺序更新策略,避免选择分布外动作,增强智能体的协调性。实验结果表明,InSPO在多个任务中表现优异,具有广泛的应用潜力。

行为正则化与顺序策略优化结合的离线多智能体学习算法

美团技术团队
美团技术团队 · 2025-02-21T00:00:00Z

本研究介绍了Kimi k1.5,采用创新方法训练多模态大语言模型,解决了现有强化学习在竞争性和数据利用上的不足。研究表明,改进的策略优化和上下文扩展使其在多个基准测试中表现优异,具有显著的潜在影响。

Kimi k1.5: Scaling Reinforcement Learning with Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-22T00:00:00Z

本研究提出了一种新颖的对齐方法——逐步扩散策略优化(SDPO),有效解决了现有对齐方法在少步扩散模型中的泛化不足问题。实验结果表明,SDPO在奖励基础对齐方面优于以往方法,展现出强大的泛化能力。

Aligning Few-Step Diffusion Models with Dense Reward Difference Learning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-18T00:00:00Z

本研究针对传统强化学习中的稀疏奖励问题,提出了一种逐步奖励优化策略,以提升智能体在复杂任务中的表现。通过比较专家与代理的动作,自动生成中间奖励,实现更精细的策略优化,实验结果表明该方法优于现有基线。

From Novice to Expert: Optimizing LLM Agent Strategies through Stepwise Reinforcement Learning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-06T00:00:00Z

本研究提出了一种新的对抗约束策略优化(ACPO)方法,旨在平衡强化学习中的任务性能与约束满足。实验结果显示,该方法在安全健身房和四足动物移动任务中优于常用基线。

对抗约束策略优化:通过调整预算改善约束强化学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-28T00:00:00Z
TPAMI | 安全强化学习方法、理论与应用综述,慕工大、同济、伯克利等深度解析

本文综述了安全强化学习的现状和未来方向。安全强化学习在传统强化学习中加入安全约束,应用于自动驾驶和机器人等领域。研究方法分为基于模型和无模型,涉及策略优化和控制理论。理论分析关注算法安全性、样本复杂度和收敛性。基准测试环境如AI Safety Gridworlds和Safety Gym用于评估算法性能。未来挑战包括算法扩展性和实时性能。

TPAMI | 安全强化学习方法、理论与应用综述,慕工大、同济、伯克利等深度解析

机器之心
机器之心 · 2024-10-08T06:15:22Z

本文介绍了一种名为REFUEL的策略优化方法,提升大型语言模型在多轮对话中的长期计划能力。REFUEL通过单一模型估计$Q$值,并在自生成数据上训练,解决协变量偏移问题。实验结果表明,REFUEL在长时间多轮对话中表现优于其他方法,具有很大应用潜力。

回归相对未来:多轮RLHF的高效策略优化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-06T00:00:00Z

本研究针对传统期望效用理论与人类偏好不一致的问题,利用累积分前景理论提出新的策略优化方法。文章提出新的策略梯度定理,并开发出无模型的策略梯度算法,有效结合累积分前景理论与强化学习。该算法在交通控制和电力管理等领域表现优异,显示出广泛影响。

超越预期回报:一种累积分 prospect 理论强化学习的策略梯度算法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-03T00:00:00Z

本研究提出了异质PSRO(H-PSRO)框架,解决异质团队零和游戏中的事前均衡问题。现有的Team PSRO方法在角色不同的团队中无法覆盖所有策略空间,导致结果不理想。H-PSRO通过优化团队成员策略,提高收益,并在异质团队游戏中表现优于传统方法。

异质零和团队游戏中的事前均衡计算

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-02T00:00:00Z

本文研究了模型在强化学习算法中的使用,提出了一种基于模型的算法,并探讨了模型在策略优化中的作用。作者证明了模型的使用是合理的,并展示了一种简单的方法,使用短模型生成滚动数据,具有比其他方法更好的样本效率,并能处理其他算法不能处理的问题。

长模型推演不是坏 Q - 值估计的理由

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-16T00:00:00Z

本文研究了模型在强化学习算法中的使用,提出了一种基于模型的算法,并探讨了模型在策略优化中的作用。作者展示了一种简单的方法,使用短模型生成滚动数据,具有比其他方法更好的样本效率,并能处理其他算法不能处理的问题。

信任自信模型 — 不确定性感知策动适应的基于模型的演员 - 评论家算法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-29T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码