合作驾驶中多视角数据融合的共形轨迹预测
原文中文,约400字,阅读约需1分钟。发表于: 。本研究介绍了 V2INet,一种新颖的轨迹预测框架,通过扩展现有的单视图模型来建立多视图数据模型。我们的模型支持端到端训练,提高了灵活性和性能,并利用后续适应性预测模块校准了预测的多模态轨迹,以获得有效的置信区间。使用真实的 V2I 数据集 V2X-Seq 对整个框架进行了评估,结果表明在单 GPU 下具有优越的最终位移误差和错过率。
本文提出了一种利用多视角 LiDAR 返回和摄像头图像的终端到终端物体检测和轨迹预测方法,使用 Bird's-Eye View (BEV) 网络的状态-of-the-art 融合历史 LiDAR 数据和高清地图的体素化特征来执行检测和预测任务。在实际的无人驾驶车辆数据和公共 nuScenes 数据集上,所提出的多视角融合方法的表现都优于最先进的技术,并且增加了较少的计算成本。