EgoScale是一个基于大规模自中心人类数据的灵巧操作迁移框架。通过在20854小时的动作标注视频上训练视觉-语言-动作模型,发现人类数据规模与验证损失呈对数线性关系。该框架采用两阶段迁移方案,先进行大规模预训练,再进行少量对齐的中期训练,使机器人在极少监督下实现灵巧操作。研究表明,预训练策略在不同机器人平台上均能有效迁移,提升任务成功率。
本文介绍了「七月在线」在机器人领域的研究,重点是通过第一人称视频训练人形机器人进行灵巧操作。EgoVLA模型利用人类视频数据,并结合少量机器人演示进行微调,提升了机器人在复杂场景中的操作能力,有效克服了传统数据采集的局限性,推动了机器人技术的发展。
本研究提出了PolyTouch触觉传感器,旨在提高机器人在非结构化家庭环境中的灵巧操作能力。该传感器集成了视觉和听觉等多种感知功能,显著增强了家用机器人的灵活性和可靠性。
本文提出了一种新方法,结合强化学习与人机协作,解决机器人灵巧操作技能的教学问题。通过预训练灵巧动作原型和人类远程操作提示,显著提高了机器人的稳定性和灵活性。
星动纪元推出的ERA-42是首个端到端原生机器人大模型,具备强大的自适应和泛化能力,能让五指灵巧手完成100多种复杂操作,推动具身智能体进入通用灵巧操作时代。
最近,强化学习与触觉传感在灵巧操作方面取得了进展。我们提出了一种触觉皮肤传感器模型,实现了零样本的模拟与实况迁移,并开发了基于滑动接触的强化学习策略。实验结果表明,三轴触感策略优于其他基准策略。
完成下面两步后,将自动完成登录并继续当前操作。