GraspVLA是一种基于十亿级合成抓取数据集的机器人抓取模型,结合视觉语言模型和动作生成机制,提升了抓取技能的泛化能力。该模型通过渐进式动作生成方法,实现了仿真到现实的迁移,展现出优异的零样本性能。
本研究提出了GraspCorrect模块,通过视觉-语言模型的指导反馈,解决了机器人抓取不稳定的问题。该模块引入了任务特定约束和物体意识采样,显著提升了抓取性能和成功率。
本研究提出FreeGrasp方法,利用视觉-语言模型理解人类指令与物体关系,有效解决机器人抓取问题。实验结果显示该方法在零样本设置下表现优异,具备应用潜力。
本研究提出了一种基于自编码器的点云修补算法,旨在解决机器人在抓取部分遮挡物体时的抓取点计算不准确问题。该算法能够重建缺失信息,提高抓取系统在真实环境中的效率,减少被丢弃的物体数量。
本研究提出了NeuGrasp方法,旨在解决透明和反射物体场景中机器人抓取的挑战。该方法结合背景先验和变换器,提升了在稀疏视角下的表面重建能力。实验结果表明,NeuGrasp的抓取性能优于现有方法,同时重建质量相似。
本文介绍了多种基于深度学习的机器人抓取方法,重点在透明物体的抓取技术。研究提出了新的抓取策略和网络模型,结合RGB图像和点云数据,提高了抓取成功率,并在多个数据集上验证了其有效性。通过动态场景重建和高效的物体姿态估计,显著提升了机器人在复杂环境中的抓取能力。
在「新锐论前沿」活动中,江佳齐博士将介绍新型灵巧视触觉传感器的设计及其在透明物体感知中的挑战,探讨其在机器人抓取中的应用潜力。
本研究提出了VMGNet模型,旨在解决深度学习机器人抓取技术的高计算复杂度问题。该模型通过引入视觉状态空间,实现线性计算复杂度,并通过多尺度特征融合提升准确性。实验结果表明,抓取成功率达到94.4%。
本文提出了一种基于属性的机器人抓取的端到端学习方法,利用门控-注意力机制融合了工作空间图像和查询文本的嵌入,学习预测实例抓取可行性,并利用抓取前后的对象持久性学习了视觉和文本属性的联合度量空间。模型在模拟中自我监督,可推广到新的对象和真实场景,并演示了只用一个抓取数据即可适应新对象的能力。在未知对象上,实验结果表明,我们的方法实现了超过80%的实例抓取成功率,优于几个基准模型。
完成下面两步后,将自动完成登录并继续当前操作。