DiffuCoder是一种新型去噪扩散大语言模型,专注于代码生成。研究表明,DiffuCoder在解码行为上与自回归模型不同,能够自主决定生成的因果性。通过新颖的采样方案coupled-GRPO,显著提升了代码生成性能,并减少了对自回归偏差的依赖。这项研究为扩散模型的生成机制提供了深入见解,并提出了有效的强化学习训练框架。
本研究提出了DeftRec框架,结合去噪扩散模型,克服了大型语言模型在离散空间中的局限性。研究表明,DeftRec在生成推荐时显著优于传统推荐系统,提升了用户偏好的理解和推荐准确性。
本研究提出了一种结合自编码器与去噪扩散模型的蛋白质序列表示学习框架,旨在解决流形学习与分布建模的任务分解问题。实验结果表明,该模型的区分能力优于基线模型。
研究者何恺明质疑去噪扩散模型对噪声条件的依赖,发现无噪声条件下模型表现优异。通过理论分析和实验,提出了uEDM模型,FID得分为2.23,缩小了与有噪声条件模型的差距,激励未来研究的新方向。
盲图像恢复在低级视觉任务中仍然面临挑战。研究提出了一种频率感知指导损失,能够集成到去噪扩散模型中,以增强内容一致性。实验结果表明,该方法在盲图像去模糊等任务中显著提升了图像质量,PSNR值提高了3.72dB。
本研究提出了一种基于脑电图的语音解码新方法,利用不同卷积核尺寸的去噪扩散模型集成学习框架,显著提升了语音解码的准确性和鲁棒性,为脑机接口系统,特别是帮助语言障碍人士提供了新的可能性。
本研究探讨了去噪扩散模型在医学图像异常定位中的应用,提出了全面的监督策略,显示该模型在检测偏差和领域转换等挑战中具有显著潜力。
本文介绍了DiGress,这是一种生成带分类节点和边缘属性图的离散去噪扩散模型。通过逐步编辑噪声图,结合马尔可夫噪声模型和辅助图特征,提升样本质量。DiGress在分子和非分子数据集上表现优异,尤其在平面图数据集上效果提升3倍,并能扩展到大型GuacaMol数据集。
我们提出了一种名为Patch-DM的去噪扩散模型,用于生成高分辨率图像。该模型在小图像块上训练,通过特征拼贴策略避免边界伪影,实现无缝生成。Patch-DM在多个数据集上表现优异,FID分数优于其他方法,并减少了内存复杂度。
去噪扩散概率模型(DDPMs)通过逐步将数据扩散为高斯噪声并去噪,在图像生成中表现优异。本文介绍了部分扩散模型(PartDiff),通过将图像扩散到中间潜在状态来生成新数据,减少了去噪步骤。实验显示,PartDiff在不降低质量的情况下显著提高了效率。
本研究提出FabricDiffusion方法,通过去噪扩散模型实现复杂背景下3D服装的高质量纹理转移,优于现有技术,并适用于新纹理和服装形状。
本研究提出了一种新方法,结合自适应波束形成和去噪扩散模型,以提高超声成像的图像质量。实验结果显示该方法在图像重建方面表现出显著优势,可能对医学成像领域产生重要影响。
本文介绍了一种基于深度学习的创新方法,使用去噪扩散模型将低分辨率图像转换为高分辨率图像,并解决了图像生成问题。通过训练和测试大规模多样的图像数据集,展示了该方法在变化检测方面的改进。
本文介绍了将去噪扩散模型应用于图像融合任务的方法,设计了两种条件注入模块,并讨论了残差学习和目标函数选择。实验结果表明该方法在图像融合中具有最先进的结果和良好的泛化性能。
我们提出了一种有效的去噪扩散模型,用于生成高分辨率图像。该模型在小尺寸图像块上训练,通过特征拼贴预测移位图像块的特征,实现整个图像的无缝生成。与经典的扩散模型相比,Patch-DM还减少了内存复杂度。
研究发现,现代DDM的很少组件对于学习良好的表示是至关重要的,而其他组件则不是必要的。提出了一种高度简化且类似于经典DAE的方法,重新激发对经典方法的兴趣。
本综述回顾了计算机视觉中去噪扩散模型的理论和实际贡献,介绍了三种通用扩散建模框架,并讨论了扩散模型与其他深度生成模型的关系。同时,还介绍了计算机视觉中应用扩散模型的多个视角分类,并指出了离散模型的限制和未来研究方向。
本文提出了一种隐式扩散模型(IDM),利用神经表示和去噪扩散模型实现高保真持续图像超分辨率。实验验证了IDM的有效性和优越表现。
本文介绍了将去噪扩散模型应用于图像融合任务的方法,设计了两种条件注入模块,并讨论了残差学习和目标函数选择。实验结果表明,该方法在图像融合中具有最先进的结果和良好的泛化性能。希望能激发其他工作的灵感,推动扩散模型在图像融合中的应用。
本文介绍了将去噪扩散模型应用于图像融合领域的方法,设计了两种不同的条件注入模块,并讨论了去噪扩散模型在图像融合中的残差学习和目标函数选择。实验结果表明,该方法在图像融合任务中具有最先进的结果和良好的泛化性能。
完成下面两步后,将自动完成登录并继续当前操作。