层叠场景扩散移动任何物体
原文中文,约400字,阅读约需1分钟。发表于: 。通过对不同空间布局的场景渲染进行联合去噪,SceneDiffusion 方法的关键见解在于可以通过优化扩散采样过程中的分层场景表示来实现空间分离,从而生成支持移动、调整大小、克隆以及逐层外观编辑(包括目标重塑和替换)等广泛空间编辑操作的场景。此外,可以根据参考图像生成场景,从而实现对野外图像中的目标进行移动,该方法无需进行训练,与一般的文本 - 图像扩散模型兼容,并且响应时间少于一秒。
本研究提出了一种新的神经场景表示方法IB-planes,能够准确地表示大型三维场景,并通过去噪扩散框架学习对这种表示的先验知识,支持三维重建和生成。该模型在真实和合成图像数据集上展示了优越的结果。