MUSES:通过多模态代理协作进行3D可控图像生成

💡 原文中文,约500字,阅读约需1分钟。
📝

内容提要

最新的大规模文本到图像扩散模型在文本到三维生成领域取得突破,通过给定的文本提示和手绘草图,实现了对合成的三维内容的交互式控制和塑造。通过改进的2D条件扩散模型和预训练的可微分照片到草图模型,实现了更好的可控文本到三维生成。实验证明,该模型可以生成准确忠实的与输入的文本提示和草图紧密对齐的三维场景。

🎯

关键要点

  • 大规模文本到图像扩散模型在文本到三维生成领域取得重大突破。
  • 现有技术缺乏根据用户需求(如草图)对三维内容进行交互式控制的能力。
  • 首次尝试在条件上添加手绘草图进行文本到三维生成,增强用户可控性。
  • 通过改进的2D条件扩散模型引导三维场景学习,使视角与文本提示和草图对齐。
  • 利用预训练的可微分照片到草图模型估计合成三维场景的草图。
  • 生成的草图与给定草图在几何上保持一致,实现更好的可控文本到三维生成。
  • 实验证明该模型可以生成与输入文本提示和草图紧密对齐的三维场景。
➡️

继续阅读