合作驾驶中多视角数据融合的共形轨迹预测
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文提出了一种利用多视角 LiDAR 返回和摄像头图像的终端到终端物体检测和轨迹预测方法,使用 Bird's-Eye View (BEV) 网络的状态-of-the-art 融合历史 LiDAR 数据和高清地图的体素化特征来执行检测和预测任务。在实际的无人驾驶车辆数据和公共 nuScenes 数据集上,所提出的多视角融合方法的表现都优于最先进的技术,并且增加了较少的计算成本。
🎯
关键要点
- 提出了一种利用多视角 LiDAR 返回和摄像头图像的终端到终端物体检测和轨迹预测方法。
- 使用 Bird's-Eye View (BEV) 网络融合历史 LiDAR 数据和高清地图的体素化特征。
- 扩展模型使用 LiDAR Range-View (RV) 功能,采用 LiDAR 原始信息的非量化表示。
- RV 特征图被投影到 BEV 中,并与 LiDAR 和高清地图的 BEV 特征融合。
- 最终输出检测和轨迹,形成一个单一的可训练终端到终端网络。
- 在无人驾驶车辆数据和公共 nuScenes 数据集上表现优于最先进技术,且计算成本增加较少。
➡️