基于上下文的多任务学习用于行人意图和轨迹预测
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文介绍了PIP-Net框架,用于预测自动驾驶汽车在城市场景中行人过马路意图。该模型利用运动数据和驾驶场景的空间特征,采用循环和时间注意力的解决方案,能够提前4秒准确预测行人过马路意图。同时,作者还提出了Urban-PIP数据集,是一个自动驾驶情景下的定制行人意图预测数据集。
🎯
关键要点
- PIP-Net框架用于预测自动驾驶汽车在城市场景中行人过马路意图。
- 该模型利用运动数据和驾驶场景的空间特征,采用循环和时间注意力的解决方案。
- 模型能够提前4秒准确预测行人过马路意图,优于当前最先进的模型。
- 引入分类深度特征图和局部运动流特征,提高道路使用者的视觉表达和距离感知。
- 探索将视野从一个相机扩展到三个相机,增强模型的上下文感知能力。
- 首次提出Urban-PIP数据集,包含多相机注释的定制行人意图预测数据集。
➡️