研究人员开发了一种名为RoboGrasp的机器人手,能够从单视图图像中学习生成有效的抓取动作。在真实实验中,该机器人在新物体上的抓取成功率达到85%,并能应对部分遮挡和杂乱环境等复杂场景。
HandyPriors是一个统一框架,用于人-物互动场景的姿态估计。通过可微的物理和渲染技术,它对齐图像和分割掩码,减少穿透和滑动问题。提供高精度的优化估计和快速追踪,表现优异,并能预测接触信息,适用于机器人手操纵等任务。
完成下面两步后,将自动完成登录并继续当前操作。