零样本引导图像合成的分层渲染扩散模型 本文介绍了增强依赖于文本查询的扩散模型的空间可控性的创新解决方案,提出了两个关键创新:视觉引导和分层渲染扩散(LRDiff)框架。该方法通过视觉引导和分层渲染策略实现更高效和准确的图像综合,用于满足特定的空间和上下文需求,并通过实验证明其在定量和定性上优于现有技术。 通过Steered Diffusion框架实现了逼真零样本条件图像生成,修补、着色、语义编辑和图像超分辨率方面有明显改进,计算成本较低。 Steered Diffusion 修补 扩散模型 着色 语义编辑 零样本图像生成