我们提出了一种新的3DGS辐射场训练方法,通过结合深度先验、生成和显式约束,减少背景折叠和浮点值,增强未见视角的一致性。实验表明,该方法在MipNeRF-360数据集上,以较低成本超越了基本3DGS的30.5%和NeRF方法的15.6%。
本文介绍了一种改进的文本到纹理生成方法,解决了视角不一致和纹理与网格不对齐的问题。通过使用2D扩散模型、对称视图合成和区域提示,该方法显著提高了纹理生成的一致性和无缝性,实验结果优于现有方法。
DiffPortrait3D是一种条件扩散模型,用于合成一致的3D真实场景。通过2D扩散模型去噪,引入跨视角注意力模块增强视角一致性,并实施新颖的3D感知噪声生成过程。在野外和多视角基准测试中,结果优于现有方法。
完成下面两步后,将自动完成登录并继续当前操作。