ZeroComp:通过扩散从图像内部特征实现零-shot物体合成
原文中文,约400字,阅读约需1分钟。发表于: 。本研究针对传统的3D物体合成方法常需配对图像的痛点,提出了一种新颖的零-shot物体合成方法ZeroComp。该方法结合了ControlNet和Stable Diffusion模型,通过内部图像有效渲染虚拟3D物体,显著提升了合成的真实感,并在多项基准测试中超越了现有技术。
我们推出了ZeroNVS,一种用于单图像新视图合成的3D感知扩散模型。通过生成式先验模型解决多物体和复杂背景的问题,采用相机条件参数化和归一化方案来解决深度尺度的二义性。改进SDS方法以增强新视图的多样性。模型在DTU数据集上表现出色,甚至超过了一些专门训练的方法,并在Mip-NeRF 360数据集上展示了强大性能。