TIDE:结构光系统中基于模式流的时序增量视差估计
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
StereoNet是一种深度学习架构,能够在NVidia Titan X上以60fps运行,产生高质量、边缘保留且无量化的视差图。该网络具有超像素匹配精度的关键洞见,比传统立体匹配方法高一个数量级,通过使用低分辨率代价体编码所需的所有信息,从而实现实时性。该方法在多个基准测试中取得了显着的结果,提供了极大的灵活性。
🎯
关键要点
- StereoNet是第一个端到端实时立体匹配的深度学习架构。
- 在NVidia Titan X上以60fps运行,产生高质量、边缘保留且无量化的视差图。
- 该网络具有超像素匹配精度,比传统立体匹配方法高一个数量级。
- 通过使用低分辨率代价体编码所需的所有信息,实现实时性。
- 采用学习的边缘感知上采样函数实现空间精度。
- 使用Siamese网络从左右图像提取特征。
- 在非常低的分辨率代价体中计算视差的初步估计。
- 模型通过紧凑的像素到像素细化网络分层地重新引入高频细节。
- 利用颜色输入作为指南,产生高质量的边缘感知输出。
- 在多个基准测试中取得显着结果,展示了方法在可接受的计算预算下的灵活性。
➡️