蚂蚁灵波开源了2700GB的LingBot-Depth-Dataset数据集,包含300万对RGB-D数据,旨在解决机器人感知空间的挑战。该数据集涵盖多种真实场景,增强模型的泛化能力,推动具身智能的发展,减少对昂贵硬件的依赖。
本文介绍了结合视觉和触觉传感器开发的多种触觉技术和模型,如TACTO模拟器和TouchSDF深度学习方法。这些技术在机器人感知、3D形状重建和多模态学习中具有重要应用,推动了触觉与视觉的交互研究,并提出了新的数据集和模型,提升了触觉理解和语义对齐的效果。
本文介绍了一种利用大型语言模型和机器人感知和物理能力相结合的方法,解决了将记忆过程与语言模型结合以生成机器人动作的问题。通过双层架构和受人类认知启发的记忆模型,机器人在任务之间能够有效切换,并在五个基线机器人任务上表现出显著提高的性能。这证明了将记忆与语言模型集成以适应任务执行的潜力。
本研究探索了利用基于视觉的触觉传感器进行机器人感知和织物纹理分类的主动感知策略。通过信息理论和实验,发现数据增强和丢弃率对识别准确性有更大影响。研究表明基于视觉的触觉传感器对纺织品纹理识别非常有效。
RGB-D相机在机器人感知中至关重要,能够生成带有深度数据的图像。这篇研究提出了一种新的基于线条的RGB-D相机系统校准方法,通过利用周围的长线特征,并使用一种新的收敛投票算法来滤除异常值,相对于现有方法实现了无需目标、实时和鲁棒性能。
完成下面两步后,将自动完成登录并继续当前操作。