按需深度:从低帧率主动传感器流式传输密集深度

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本研究提出了一种深度模型,能在极少的像素点处获得 RGB 图像的已知深度情况下,精确地生成密集深度图,并能在 NYUv2 和 KITTI 数据集上实现近乎实时速度的室内/室外场景的高质量深度点云。与其他稀疏到密集深度方法相比,在每 ~10000 个像素中仅有一个像素的情况下,我们的深度估计准确度比现有最新算法还要高,仅在图像 1/256 的像素上估计,我们的精度就相当于消费级深度传感器的性能,本研究说明了将稀疏深度测量高效地转换成高质量的密集深度图是完全可能的。

🎯

关键要点

  • 本研究提出了一种深度模型,能够在极少的像素点处生成密集深度图。

  • 该模型在 NYUv2 和 KITTI 数据集上实现了近乎实时速度的高质量深度点云生成。

  • 在每 ~10000 个像素中仅有一个像素的情况下,深度估计准确度高于现有最新算法。

  • 仅在图像 1/256 的像素上估计时,精度相当于消费级深度传感器的性能。

  • 研究表明将稀疏深度测量高效地转换为高质量的密集深度图是完全可能的。

➡️

继续阅读