基于视觉驱动的二维监督微调框架用于鸟瞰视角感知
原文中文,约400字,阅读约需1分钟。发表于: 。本研究解决了鸟瞰视角感知在缺乏激光雷达数据的情况下的基准问题,提出了一种基于视觉二维语义感知的微调方法,以增强模型在新场景数据中的泛化能力。研究表明,该方法显著降低了对高成本鸟瞰视角真实数据的依赖,并展示了良好的工业应用前景。
本文提出了一种利用多视角 LiDAR 返回和摄像头图像的终端到终端物体检测和轨迹预测方法,使用 Bird's-Eye View (BEV) 网络的状态 -of-the-art 融合历史 LiDAR 数据和高清地图的体素化特征来执行检测和预测任务。在实际的无人驾驶车辆数据和公共 nuScenes 数据集上,所提出的多视角融合方法的表现都优于最先进的技术,并且增加了较少的计算成本。