该研究提出了一种新策略,针对在线社交网络中有限信任对影响力传播的影响。通过控制理论优化多代理目标选择,实验证明该方法在改善舆论和减少极化方面优于传统方法。
机器之心的AIxiv专栏促进了学术交流,报道了2000多篇文章。上海交通大学与上海AI Lab的研究团队开发了HugWBC控制器,使人形机器人掌握多种步态,实现精细运动控制。该研究结合控制理论与强化学习,提升了机器人的运动能力和鲁棒性。
本研究解决了传统神经网络在模仿学习中缺乏输出错误补偿的问题。通过引入反馈机制和分层神经网络结构,提高了未训练字符的书写准确性,验证了神经网络与控制理论结合的潜力。
本文综述了安全强化学习的现状和未来方向。安全强化学习在传统强化学习中加入安全约束,应用于自动驾驶和机器人等领域。研究方法分为基于模型和无模型,涉及策略优化和控制理论。理论分析关注算法安全性、样本复杂度和收敛性。基准测试环境如AI Safety Gridworlds和Safety Gym用于评估算法性能。未来挑战包括算法扩展性和实时性能。
本文提出了多种基于机器学习和控制理论的方法,以提高电力系统的安全性和性能。研究内容包括基于屏障证明的Simplex算法、图神经网络在电网动态稳定性分析中的应用,以及无模型负荷频率控制方法,旨在应对可再生能源带来的挑战,优化电网管理,确保系统的稳定性和安全性。
本文介绍了使用控制理论和Python创建火箭控制系统的方法,包括选择控制策略、理解火箭特性和轨迹、设置初始参数、调整系统以及优化控制系统。文章还介绍了PID控制器的工作原理和稳定性分析方法,以及非线性控制系统的优化方法和实际应用。
本文介绍了使用控制理论的思想,引入了PID TD学习和PID Q-Learning算法来加速RL环境的收敛。同时,提出了一种适应PID增益的方法,并通过理论和实证分析证明了其有效性。
本研究提出了一种基于符合性预测和控制理论的算法,用于时间序列预测的不确定性量化问题。该算法能够模拟符合性得分,并适应系统误差。实验结果显示,在COVID-19死亡人数预测中,与官方方法相比,覆盖范围有所改善。同时,还对电力需求、市场回报和温度进行了实验预测。提供了可扩展的代码库。
本文综述了机器学习在实现安全决策方面的最新进展,重点介绍了控制理论和强化学习研究中使用的语言和框架。讨论了学习控制方法、强化学习方法和证明学习控制策略安全性的方法。强调了近距离与人类操作时的安全性重要性,以及未来机器人学习研究中需要解决的挑战和基于物理的基准测试。
本研究通过使用通用的原始对偶框架,将经典优化和控制理论与强化学习方法结合,旨在统一和整合现有技术,并为学习的策略施加附加约束。实验证明了该方法的有效性,并为系统设计者提供了多种策略约束的工具箱。
该文章综述了强化学习的优化和控制方法,重点关注连续控制应用。通过一个线性二次调节器(LQR)的案例研究,描述了学习理论和控制理论的融合可以提供非渐进特征,并表明这些特征趋向于匹配实验行为。同时,讨论了学习系统在不确定环境中的挑战以及强化学习和控制领域提供的工具如何应对这些挑战。
本文提出了一种替代经验风险最小化的方法,通过处理输入扰动来实现可靠结果。利用控制理论的工具来开发和理解机器学习,将深度神经网络解释为控制系统离散化。文章提供了鲁棒训练的新解释,并在低维分类任务上进行了测试。
该文介绍了一种基于符合性预测和控制理论的算法,用于时间序列预测的不确定性量化问题。该算法能够在在线环境中前瞻性地模拟符合性得分,并能适应由季节性、趋势性和一般分布变化引起的系统误差。作者在美国州级 COVID-19 死亡人数提前四周预测的实验中,与官方 CDC 通讯中使用的集合预测方法相比,覆盖范围有所改善。作者还使用自回归、Theta、Prophet 和 Transformer 模型对电力需求、市场回报和温度进行了实验预测,并提供了一个可扩展的代码库。
该研究提出了一种基于符合性预测和控制理论的算法,用于时间序列预测的不确定性量化问题。该算法能够在在线环境中前瞻性地模拟符合性得分,并能适应由季节性、趋势性和一般分布变化引起的系统误差。实验结果表明,该算法在美国州级 COVID-19 死亡人数提前四周预测中的覆盖范围有所改善。同时,该研究还使用自回归、Theta、Prophet 和 Transformer 模型对电力需求、市场回报和温度进行了实验预测,并提供了一个可扩展的代码库。
该论文提出了一种基于控制理论的强化方法,使用反馈控制构建了神经网络架构,增强对抗攻击的防御能力。实验结果显示该方法比现有技术更有效。
完成下面两步后,将自动完成登录并继续当前操作。