本文介绍了NavFoM,一个跨任务和跨形态的具身导航基础模型。该模型通过处理自我视角视频和语言指令来预测导航轨迹,经过八百万个样本的训练,采用时序-视角指示符token和预算感知时序采样策略,以提升模型的泛化能力和实用性。研究者强调开源和分享对技术影响力的重要性。
完成下面两步后,将自动完成登录并继续当前操作。