Peggy Johnson, CEO of Agility Robotics, shares how the company is creating the next generation of humanoid robots, keeping safety and utility in mind at all times.
A pragmatic look at what general-purpose robots can—and can’t yet—do in the workplace.
We’re introducing an efficient, on-device robotics model with general-purpose dexterity and fast task adaptation.
本研究提出了OPA-Pack框架,以解决机器人装箱中物体属性未被考虑的问题。通过新型识别方案和OPA-Net模型,显著提高了不兼容物体分离的准确率至95%,并减少了脆弱物体的压力29.4%,同时保持了良好的装箱紧凑性。
本研究提出了一种潜在空间向后规划方案(LBP),显著提升了机器人实时控制的效率与准确性。实验结果表明,LBP在长时间行为任务中优于传统方法,达成了领先性能。
本研究提出了一种基于大型语言模型的自动化混合奖励调度框架,旨在简化高自由度机器人技能学习中的奖励函数设计。实验结果表明,该方法在多个任务中平均提升了6.48%的性能。
本研究提出了ManipDreamer,通过引入动作树和视觉引导,显著提升了机器人操控视频合成中的指令跟随和视觉质量。
本研究提出统一世界模型(UWM),通过结合视频和动作扩散,解决大规模机器人基础模型中模仿学习的扩展问题。UWM在统一变换器架构中整合这两种数据,显著提升了策略学习的通用性与鲁棒性。
本研究提出了一种新型模仿学习算法,旨在解决人形机器人在精确操作中的感知与控制复杂性问题。通过聚焦主要任务和采用空间注意机制,显著提高了任务成功率,展现出良好的稳健性和可扩展性,为人形机器人的自主学习与控制提供了新思路。
RoboFlamingo-Plus是一种新型视觉语言模型,旨在提升机器人在3D环境中的操作能力。该模型通过融合深度和RGB信息,优化深度数据处理,增强机器人对复杂环境的理解,从而更有效地执行语言指导的任务。
本研究提出了GraspCorrect模块,通过视觉-语言模型的指导反馈,解决了机器人抓取不稳定的问题。该模块引入了任务特定约束和物体意识采样,显著提升了抓取性能和成功率。
本研究提出了一种基于课程学习的变换器强化学习算法CTSAC,旨在提升机器人探索中的环境推理能力和收敛速度。实验结果表明,CTSAC在成功率和探索效率方面优于现有算法。
本研究提出KUDA系统,结合关键点动态学习与视觉提示,解决开放词汇机器人操控在动态任务中的局限性。KUDA有效将目标规范转化为模型规划成本函数,展示了在多种操控任务中的优异表现及广泛应用潜力。
TRIFFID系统旨在提升第一响应者在自然灾害中的效率,结合无人地面和空中载具及先进人工智能,利用深度神经网络和多模态信息融合,实现自主导航和灾害环境分析,增强应急响应团队的任务规划和安全监测能力。
本研究提出了一种深度逆映射模型,用于拍打翼机器人,解决输入与输出之间的逆映射问题。通过改进的机器学习模型,识别生成理想气动力所需的翼动输入,表现优于现有模型,可能对生物模仿机器人和生物医学设备的建模与控制产生积极影响。
本研究提出了一种名为BIFURC的新算法,能够高效识别大腿区域的血管分叉,并在临床应用中具有重要潜力。
完成下面两步后,将自动完成登录并继续当前操作。