Grounding 3D Object Affordance with Language Instructions, Visual Observations, and Interactions
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了一种新方法LMAffordance3D,通过语言指令、视觉观察和交互来定位3D空间中的可操控物体,成功连接感知与行动。实验结果表明该方法在复杂场景中表现优越。
🎯
关键要点
- 本研究提出了一种新方法LMAffordance3D,旨在解决在3D空间中定位可操控物体的问题。
- 该方法结合了语言指令、视觉观察和交互,成功连接了感知与行动。
- 在AGPIL数据集上进行的实验表明,LMAffordance3D在复杂场景中表现优越,显示出其有效性。
🏷️
标签
➡️