ReconX:利用视频扩散模型从稀疏视图重建任意场景
原文中文,约400字,阅读约需1分钟。发表于: 。本研究针对从稀疏视图重建详细场景这一难题,提出了ReconX框架,通过将重建挑战重新构建为时间生成任务,利用预训练视频扩散模型的强生成先验。研究表明,ReconX在保持3D一致性的同时,能够生成高细节的视频帧,从而优于现有方法,在多种现实世界数据集上展现出卓越的质量和广泛的适应性。
本文介绍了使用潜在扩散模型(LDM)解决360度3D场景的稀疏视图重建问题。通过迭代更新策略,融合伪新视图和初始稀疏输入的3D高斯模型,实现了具有上下文的细节的多视图场景表示。评估结果表明,该方法在360度场景重建方面优于现有的稀疏视图重建方法。