DreamControl: 基于控制的文本到 3D 生成与 3D 自先

💡 原文中文,约500字,阅读约需1分钟。
📝

内容提要

最新的大规模文本到图像扩散模型在文本到三维生成领域取得了重大突破。通过给定的文本提示和手绘草图,该模型能够生成与输入紧密对齐的准确忠实的三维场景。这项技术的突破在于增强了用户的可控性,使其能够根据需求对合成的三维内容进行交互式控制和塑造。通过广泛的实验证明,该模型能够有效地实现可控的文本到三维生成。

🎯

关键要点

  • 最新的大规模文本到图像扩散模型在文本到三维生成领域取得重大突破。
  • 该模型能够通过给定的文本提示和手绘草图生成准确的三维场景。
  • 现有技术缺乏根据用户需求对三维内容进行交互式控制的能力。
  • 提出的Control3D方法增强了用户的可控性,允许对合成内容进行塑造。
  • 通过改进的2D条件扩散模型(ControlNet)引导三维场景学习。
  • 利用预训练的可微分照片到草图模型估计合成三维场景的草图。
  • 实验结果表明,该模型能够生成与输入文本提示和草图紧密对齐的三维场景。
➡️

继续阅读