本研究提出了一种新的方法将 Visual Semantic Navigation(VSN)模型集成到真实机器人中,并针对真实环境中的性能差异进行实验验证,以期推动在真实世界情景中提升具体实体机器人的性能和效率。
本文介绍了一个包含自然语言描述复杂机器人任务的数据集,旨在提高机器人与人类之间的互动能力。作者测试了多种最先进的视觉和语言导航模型,但没有一个显示出有希望的结果。他们提出了一种新颖的交互式导航-指针模型,为该任务提供了强有力的基线。该模型在未见测试集上表现最佳,但与人类表现相比仍有改进空间。