小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
沉浸式翻译 immersive translate
何恺明团队再出大招:Drifting Models 挑战扩散模型,单步生成高质量图像

何恺明团队在arXiv发布了《Generative Modeling via Drifting》论文,提出了Drifting Models生成模型,训练时分布逐步漂移,推理时仅需一步生成,速度提升100倍,质量更佳,标志着生成模型领域的重要转折,期待广泛应用。

何恺明团队再出大招:Drifting Models 挑战扩散模型,单步生成高质量图像

Micropaper
Micropaper · 2026-03-03T00:30:00Z
何恺明团队新作GeoPT,全新预训练范式让模型自学真实物理规律

何恺明团队的GeoPT提出了一种新预训练范式,通过合成动力学将静态几何转化为动态空间,使模型能够在无标签数据上学习物理规律。该方法节省了20-60%的物理仿真数据,提高了训练效率和适应性,为物理仿真提供了新思路。

何恺明团队新作GeoPT,全新预训练范式让模型自学真实物理规律

量子位
量子位 · 2026-02-27T08:19:25Z

邓明扬与何恺明团队提出的新生成模型“漂移模型”将生成过程从推理阶段转移至训练阶段,实现单步生成。该模型通过“漂移场”机制对齐先验与真实数据分布,消除对抗训练的不稳定性,提升生成质量。在ImageNet基准测试中,漂移模型表现优异,刷新了单步生成纪录。

邓明扬一作论文改写生成范式!何恺明也署名了

量子位
量子位 · 2026-02-05T15:26:57Z

何恺明团队提出的Pixel Mean Flow(pMF)方法简化了扩散模型,直接在像素空间生成图像,省去了多步采样和潜空间。pMF在ImageNet上取得最佳FID成绩,验证了单步生成的可行性,推动了生成建模的进步。

何恺明带大二本科生颠覆扩散图像生成:扔掉多步采样和潜空间,一步像素直出

量子位
量子位 · 2026-02-02T07:54:05Z

何恺明NeurIPS 2025演讲盘点:视觉目标检测三十年

机器之心
机器之心 · 2025-12-11T10:20:27Z

何恺明团队推出了改进版单步生成模型iMF,解决了训练的稳定性和效率问题。在ImageNet测试中,iMF表现优异,FID成绩为1.72,超越多步扩散模型,证明其性能可与之媲美。

后生可畏!何恺明团队新成果发布,共一清华姚班大二在读

量子位
量子位 · 2025-12-04T00:50:19Z

华尔街对谷歌TPU的关注引发学术界质疑,认为Meta等公司早已在使用TPU。谷歌与Meta的TPU交易被视为对抗英伟达的策略,但分析认为谷歌的目的不仅是盈利,更是通过合作确保芯片供应。

华尔街尬捧TPU学术界懵了:何恺明5年前就是TPU编程高手,多新鲜

量子位
量子位 · 2025-11-30T02:15:09Z

NeurIPS 2025最佳论文和时间检验奖揭晓,阿里Qwen门控注意力获最佳论文,何恺明的Faster R-CNN获时间检验奖。今年共七篇论文,涉及扩散模型和自监督学习等领域的突破。

NeurIPS 2025放榜:阿里Qwen门控注意力获最佳论文,何恺明Faster R-CNN获时间检验奖

量子位
量子位 · 2025-11-27T03:15:03Z

何恺明团队的新论文提出扩散模型应聚焦于去噪,直接预测干净图像而非噪声。新架构JiT(Just image Transformers)设计简化,避免复杂组件,实验表明其在高维空间中表现优越,生成质量高。

何恺明团队新作:扩散模型可能被用错了

量子位
量子位 · 2025-11-20T02:02:27Z

何恺明重磅新作:Just image Transformers让去噪模型回归基本功

机器之心
机器之心 · 2025-11-19T02:49:41Z

何恺明在MIT新招募了本科生胡珂雅和博士后李宗宜。胡珂雅专注于AI与脑科学结合,已发表多篇高水平论文;李宗宜是傅里叶神经算子的发明者,研究物理方程的神经网络。他们将为何恺明的“AI for Science”方向贡献力量。

何恺明MIT两名新弟子曝光:首次有女生入组,另一位是FNO发明者,均为华人

量子位
量子位 · 2025-11-06T11:11:53Z

LSTM之父Schmidhuber质疑何恺明是残差学习的奠基人,指出早在1991年,Hochreiter已提出循环残差连接以解决梯度消失问题。他认为ResNet等深度学习成果应归功于早期研究,争论已持续多年。

LSTM之父向何恺明开炮:我学生才是残差学习奠基人

量子位
量子位 · 2025-10-19T14:49:10Z

MIT终身教授何恺明近期加盟谷歌DeepMind,担任兼职杰出科学家。他在计算机视觉领域有重要贡献,提出了ResNet等模型,并与谷歌合作推动生成模型研究。

MIT终身教授何恺明,入职谷歌了

量子位
量子位 · 2025-06-26T02:28:08Z

何恺明新身份:谷歌DeepMind杰出科学家

机器之心
机器之心 · 2025-06-26T02:24:42Z

何恺明CVPR最新讲座PPT上线:走向端到端生成建模

机器之心
机器之心 · 2025-06-19T12:15:28Z

何恺明改进了谢赛宁的REPA:极大简化但性能依旧强悍

机器之心
机器之心 · 2025-06-12T10:57:12Z

何恺明的新论文提出了一种名为Dispersive Loss的正则化方法,旨在提升扩散模型的生成效果。该方法无需预训练和数据增强,通过正则化中间表示来增强特征分散性,简化实现并提高生成质量。实验结果显示,Dispersive Loss在多种模型上显著改善生成效果,具有广泛的应用潜力。

何恺明新作:给扩散模型加正则化,无需预训练无需数据增强,超简单实现性能提升

量子位
量子位 · 2025-06-12T09:19:59Z

何恺明团队又发新作: MeanFlow单步图像生成SOTA,提升达50%

机器之心
机器之心 · 2025-05-21T05:09:46Z
何恺明的ResNet,成为21世纪被引量最多论文,Nature最新统计

《自然》杂志统计了21世纪引用最多的论文,排名第一的是微软的ResNets研究,奠定了深度学习的基础。其他高引用论文包括《随机森林》和《Attention is all you need》。AI领域的论文因其广泛应用和快速发展而被频繁引用。

何恺明的ResNet,成为21世纪被引量最多论文,Nature最新统计

机器之心
机器之心 · 2025-04-16T09:38:47Z
没有归一化层的Transformer!刘壮带队,何恺明、Yann LeCun都参与了

何恺明与Yann LeCun合作提出了一种新型Transformer架构Dynamic Tanh(DyT),可替代传统归一化层。DyT通过可学习参数实现输入的非线性压缩,实验结果显示其在多项任务中表现优于或等同于传统方法,且无需调整超参数,具有提升训练和推理速度的潜力。

没有归一化层的Transformer!刘壮带队,何恺明、Yann LeCun都参与了

机器之心
机器之心 · 2025-03-14T07:54:49Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码