本研究提出了一种新颖的框架,结合视觉-语言模型和关键点姿态估计网络,解决了无标记姿态估计方法在机器人部分可见情况下的失败问题。该方法在公共机器人数据集和自收集的部分视图数据集上进行评估,显示出其在真实操作场景中的有效性和广泛适用性。
本文提出了一种新的姿态估计方法,通过使用高频成分的位置编码来解决几何表示模糊的问题,并引入了一种多参考点迭代细化策略来解决细化方法中的局部最小值问题。实验证明该方法在准确估计对象姿态方面优于现有方法。
完成下面两步后,将自动完成登录并继续当前操作。