本文介绍了遮盖轨迹模型 (MTM) 作为顺序决策制定的一般抽象。MTM 通过高度随机化的遮盖模式进行训练,学习多功能网络,可以扮演不同的角色或具有不同的能力。实验表明,MTM 网络可以匹配或优于专门训练的网络,并且学到的状态表示可以加速传统 RL 算法的学习速度。在离线 RL 基准测试中,MTM 与专门的离线 RL 算法相竞争。
该文介绍了一种通用框架,将自动规划和强化学习整合,称为SDM。该框架基于概率论和贝叶斯推断的概念,可以适用于任何方法。作者提供了一个通用算法,并推测每个SDM方法都基于它。作者推导出一组用于计算SDM任务和方法的公式和算法。
本文提出了一种框架,以实现长期公平的顺序决策制定。通过强制性和软性干预,将路径特定效应作为测量长期公平性的定量工具。公平的顺序决策制定问题被规定为一个以效用为目标、长期和短期公平性为约束条件的约束优化问题。使用重复风险最小化(RRM)进行模型训练,并在理论上分析了RRM的收敛性。经验证实,该算法在时间数据集上表现良好。
完成下面两步后,将自动完成登录并继续当前操作。