在 3D 环境中探索与描述:基于身体感知的视觉字幕生成
原文中文,约400字,阅读约需1分钟。发表于: 。当前的视觉说明模型假设图像是完整呈现场景的完美捕捉,然而在真实世界场景中一个图像可能没有提供良好的视角,从而限制了对细粒度场景的理解。为了克服这一限制,我们提出了一项名为 “实体说明” 的新任务,将视觉说明模型与导航能力相结合,使其能够主动探索场景,并减少来自次优视角的视觉模糊。我们构建了一个包含 10K 个混乱物体的 3D 场景和每个场景三个注释段落的 ET-Cap...
当前的视觉说明模型假设图像是完整呈现场景的完美捕捉,但在真实世界中,图像可能没有提供良好的视角,限制了对细粒度场景的理解。为了克服这一限制,提出了一项名为“实体说明”的新任务,将视觉说明模型与导航能力相结合,主动探索场景并减少视觉模糊。构建了一个包含10K个混乱物体的3D场景和每个场景三个注释段落的ET-Cap数据集,用于支持该任务。提出了一个级联实体说明模型(CaBOT),由导航器和说明器组成,用于处理这个任务。广泛的实验证明该模型优于其他基线模型。数据集、代码和模型可在链接中获得。