RobustMVS: 单域通用深度多视角立体视觉
原文中文,约200字,阅读约需1分钟。发表于: 。本研究针对多视点立体重建(Multi-view Stereo,MVS)领域中的领域泛化问题,提出了一种名为 RobustMVS 的新型框架,并引入 DepthClustering-guided Whitening(DCW)损失以维持不同视角之间的特征一致性,实验结果表明我们的方法在领域泛化基准测试中取得了优越性能。
本文介绍了一种名为M^3VSNet的无监督多指标MVS网络,用于稠密点云重建。该网络通过结合像素和特征损失函数来学习匹配对应的内在约束,并改善深度图的精准性和连续性。该方法在DTU数据集上表现出与有监督方法可比较的性能,并在坦克和寺庙基准测试中证明了其强大的泛化能力。