MeTTA:通过测试时自适应进行单视图到3D纹理网格重建
原文中文,约300字,阅读约需1分钟。发表于: 。本研究解决了从单视图图像重建3D模型的挑战,特别是在训练数据不熟悉的情况下(即分布外样本,OoD)。提出的MeTTA方法通过利用生成先验进行测试时自适应,设计了3D几何、外观和姿态的联合优化,以应对这些OoD情况,同时引入可学习的虚拟相机和自我标定来消除模糊性。实验表明,MeTTA在现有学习型3D重建模型的失败案例中有效应对OoD场景,实现了具有真实外观的物理基础渲染纹理的重建。
该文章介绍了一种名为Worldsheet的方法,使用单一的RGB图像进行新视角综合。该方法利用可学习的中间深度将平面网格板缩包到输入图像上,并生成逼真的未见视角。通过堆叠多层Worldsheets,可以更好地处理遮挡。该方法在几个数据集上超越了先前的最先进方法,并在高分辨率的现场照片上捕捉到了新视角。