何恺明新作:给扩散模型加正则化,无需预训练无需数据增强,超简单实现性能提升 可以即插即用 何恺明的新论文提出了一种名为Dispersive Loss的正则化方法,旨在提升扩散模型的生成效果。该方法无需预训练和数据增强,通过正则化中间表示来增强特征分散性,简化实现并提高生成质量。实验结果显示,Dispersive Loss在多种模型上显著改善生成效果,具有广泛的应用潜力。 Dispersive Loss 何恺明 性能提升 扩散模型 正则 正则化 特征分散性 生成效果