本研究提出了一种从稀疏安全反馈中学习安全度量的方法,解决了安全强化学习中安全定义不明确的问题。通过设计安全模型,估计每个决策步骤对整体安全的影响,实证结果表明其在满足未知安全定义方面的有效性,适用于多种连续控制任务。
本研究提出了一种高效的状态表征学习方法,旨在解决安全强化学习中探索与安全约束的平衡问题。通过自编码器和对比学习,显著提升了稀疏奖励环境中的探索效率,同时确保了安全性。
本研究提出了一种新方法,通过模仿学习识别共享约束分布,解决了安全强化学习中预定义约束函数适用性差的问题。实验结果表明,该方法在复杂任务中在安全性和样本效率上优于基准方法,具有广泛的适用性。
本研究提出Marvel框架,通过价值预对齐和自适应PID控制,解决在线安全强化学习中的高成本和风险问题,提升奖励最大化和安全约束性能,为实用安全RL提供新方法。
本文综述了安全强化学习的现状和未来方向。安全强化学习在传统强化学习中加入安全约束,应用于自动驾驶和机器人等领域。研究方法分为基于模型和无模型,涉及策略优化和控制理论。理论分析关注算法安全性、样本复杂度和收敛性。基准测试环境如AI Safety Gridworlds和Safety Gym用于评估算法性能。未来挑战包括算法扩展性和实时性能。
本研究探讨了马尔可夫决策过程在强化学习中的作用,研究了与强化学习相关的成本,开发了新的估计器,并提出了安全强化学习研究方法和规划算法。
本研究提出了一种利用异常状态序列增强强化学习安全性的新方法。通过训练代理收集安全状态序列并建立异常检测模型,有效监督训练具有安全意识的强化学习代理。
研究人员提出了一种名为FCSRL的新框架,用于在安全强化学习中增强策略学习和约束估计。实证评估表明,该方法在多种任务中能够学习到更好的安全感知嵌入并取得优越的性能。
本文提出了一种基于随机模型的方法,几乎确定地保证了强化学习的安全性。通过预测状态表示和再生核希尔伯特空间,对未来的多步观测进行了解析表示,并通过核贝叶斯规则导出了关键操作,可以递归估计未来的观测。建立了多项式样本复杂度,确保了 ε- 次优安全策略保证。
该文章提出了一个统一安全强化学习和鲁棒强化学习问题的框架,基于两人零和马尔可夫博弈,提出了双重策略迭代方案和深度强化学习算法DRAC。实验结果显示,DRAC在各种情景下表现出高性能和持续的安全性,优于其他基准算法。
本文介绍了Safety-Gymnasium环境套件和Safe Policy Optimization算法库,包含16种最先进的安全强化学习算法,旨在促进安全性能评估和比较,推动强化学习在更安全、可靠和负责任的实际应用中的发展。
该文提出了一个框架来统一安全强化学习和鲁棒强化学习的问题,建立在有约束的两人零和马尔可夫博弈上,提出了一种双重策略迭代方案,同时优化任务策略和安全策略。设计了一种用于实际实现的深度强化学习算法 DRAC,安全关键的基准评估表明 DRAC 在所有情景下实现了高性能和持续的安全性,并且明显优于所有基准线。
完成下面两步后,将自动完成登录并继续当前操作。