本研究探讨了无分类器引导和回溯分类器引导的理解,明确了关键假设并研究了分类器的作用。研究发现,两者通过去噪扩散轨迹远离决策边界实现条件生成,提出的后处理步骤有效缩小了模型学习分布与真实数据分布之间的差距。
本文提出了一种基于无分类器引导去噪扩散概率模型的气动优化生成方法,解决了气动外形逆设计在生成精度和性能指标耦合上的不足。研究表明,该方法提升了33.6%的生成精度,并实现了多样化的压力系数分布,推动了逆设计的应用潜力。
本研究提出了一种新的图像生成方法——去噪扩散代码本模型(DDCM),旨在缩小图像生成与压缩之间的差距。该方法通过替换扩散过程中的高斯噪声采样,保持样本质量与多样性,实现了先进的感知图像压缩效果,并在条件图像生成任务中展现了广泛的应用潜力。
本研究提出了一种新方法,将去噪扩散概率模型与红移结合,生成逼真的星系图像,编码星系演化中的物理属性变化,深化了对宇宙现象的理解。
本研究探讨去噪扩散概率模型在生成图像时的潜在空间问题,指出反演技术的局限性,并证明生成图像的高层特征在训练中迅速稳定,为优化图像生成模型提供了重要见解。
该研究提出了一种名为IB-planes的新方法,用于快速重建和生成三维场景。它通过动态分配容量捕捉图像细节,并利用去噪扩散框架,仅依赖二维图像学习三维场景的先验知识。研究还提出了避免简单三维解决方案的方法。模型在多个数据集上表现出色,实现了优异的生成、新视图合成和三维重建效果。
本研究提出了一种内存高效的去噪扩散概率模型,用于生成合成医疗图像,特别是肺结节的CT扫描。这解决了医疗影像数据稀缺的问题,提升了训练数据集的创建潜力,助力模型分割性能的提高。
本研究提出了一种去噪扩散概率模型的视频建模框架,能够生成长时间视频。该方法优化采样顺序,使用选择性稀疏和长程调节,在多个数据集上表现优于现有技术,生成了长达25分钟的视频。此外,研究还发布了一个基于CARLA自动驾驶模拟器的视频数据集和语义度量。
本研究通过修改跨注意力机制,在去噪扩散过程中创造新的艺术风格。引入了AttnMod模型,使得扩散模型能够生成不依赖文本提示的新艺术风格,具有艺术创作潜力。
该文介绍了一种简单但健壮的框架,通过将物体检测和关联作为一致去噪扩散过程来联合建模,大幅提升了跟踪器的效果。实验证明该方法在多个 MOT 基准测试上与当前最先进的方法相当。
完成下面两步后,将自动完成登录并继续当前操作。