构建场景:基于扩散的图像生成中的互动3D布局控制

💡 原文中文,约500字,阅读约需1分钟。
📝

内容提要

最新的文本到图像扩散模型在文本到三维生成领域取得突破,通过文本提示和手绘草图创作准确的三维场景,增强用户可控性。改进的2D条件扩散模型和预训练的可微分照片到草图模型实现更好的可控文本到三维生成。

🎯

关键要点

  • 最新的文本到图像扩散模型在文本到三维生成领域取得重大突破。
  • 现有技术缺乏根据用户需求(如草图)对三维内容进行交互式控制的能力。
  • 首次尝试在条件上添加手绘草图的文本到三维生成,增强用户可控性。
  • 通过改进的2D条件扩散模型(ControlNet)引导三维场景学习。
  • 利用预训练的可微分照片到草图模型估计合成三维场景的草图。
  • 生成的草图与给定草图在几何上保持一致,实现更好的可控文本到三维生成。
  • 广泛实验表明,提议生成的三维场景与输入的文本提示和草图紧密对齐。
➡️

继续阅读