基于文本的从第一人称视角的作用感知学习
原文中文,约200字,阅读约需1分钟。发表于: 。通过文本指导的能力学习方法,学习机器人接触点和操纵轨迹,实现对实际场景中多样化互动的理解。
本论文介绍了名为3D AffordanceNet的数据集,包含23个语义对象类别的23k个形状,注释了18个视觉可用性类别,并提供了三个评估视觉可用性理解的基准测试任务。作者评估了三种最先进的点云深度学习网络,并研究了半监督学习设置下利用未标记数据的可能性。结果表明,视觉可用性理解是一个有价值但具有挑战性的基准测试。