该论文研究了具有线性函数逼近的离线强化学习问题,并提出了一种计算效率高的算法。该算法在数据集的单策略覆盖条件下成功,输出的策略价值至少等于数据集覆盖良好的任何策略的价值。算法在固有贝尔曼误差为0的情况下提供了第一个保证,并且在固有贝尔曼误差为正值的情况下,算法的次最优误差与固有贝尔曼误差的平方根成比例。该算法的下界与强化学习在错误建模情况下的其他设置形成对比。
该论文研究了具有线性函数逼近的离线强化学习问题,并提出了一种计算效率高的算法。该算法能够在数据集的单策略覆盖条件下成功,输出的策略价值至少等于数据集覆盖良好的任何策略的价值。算法能够在固有贝尔曼误差为0的情况下提供已知的第一个保证,并且在固有贝尔曼误差为正值的情况下,次最优误差与固有贝尔曼误差的平方根成比例。该算法的下界与强化学习在错误建模情况下的其他设置形成对比。
该文章介绍了一种自动化的大语言模型(LLM)转换方法,可以产生具有不确定性感知能力的LLM。该方法与模型和数据无关,计算效率高,不依赖外部模型或系统。通过在选择性问答环境下评估转换模型,结果表明使用该方法提供的不确定性估计有选择性地回答问题,可以显著提高准确性。
完成下面两步后,将自动完成登录并继续当前操作。