小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
沉浸式翻译 immersive translate
何恺明团队再出大招:Drifting Models 挑战扩散模型,单步生成高质量图像

何恺明团队在arXiv发布了《Generative Modeling via Drifting》论文,提出了Drifting Models生成模型,训练时分布逐步漂移,推理时仅需一步生成,速度提升100倍,质量更佳,标志着生成模型领域的重要转折,期待广泛应用。

何恺明团队再出大招:Drifting Models 挑战扩散模型,单步生成高质量图像

Micropaper
Micropaper · 2026-03-03T00:30:00Z
何恺明团队新作GeoPT,全新预训练范式让模型自学真实物理规律

何恺明团队的GeoPT提出了一种新预训练范式,通过合成动力学将静态几何转化为动态空间,使模型能够在无标签数据上学习物理规律。该方法节省了20-60%的物理仿真数据,提高了训练效率和适应性,为物理仿真提供了新思路。

何恺明团队新作GeoPT,全新预训练范式让模型自学真实物理规律

量子位
量子位 · 2026-02-27T08:19:25Z

邓明扬与何恺明团队提出的新生成模型“漂移模型”将生成过程从推理阶段转移至训练阶段,实现单步生成。该模型通过“漂移场”机制对齐先验与真实数据分布,消除对抗训练的不稳定性,提升生成质量。在ImageNet基准测试中,漂移模型表现优异,刷新了单步生成纪录。

邓明扬一作论文改写生成范式!何恺明也署名了

量子位
量子位 · 2026-02-05T15:26:57Z

何恺明团队提出的Pixel Mean Flow(pMF)方法简化了扩散模型,直接在像素空间生成图像,省去了多步采样和潜空间。pMF在ImageNet上取得最佳FID成绩,验证了单步生成的可行性,推动了生成建模的进步。

何恺明带大二本科生颠覆扩散图像生成:扔掉多步采样和潜空间,一步像素直出

量子位
量子位 · 2026-02-02T07:54:05Z

何恺明NeurIPS 2025演讲盘点:视觉目标检测三十年

机器之心
机器之心 · 2025-12-11T10:20:27Z

何恺明团队推出了改进版单步生成模型iMF,解决了训练的稳定性和效率问题。在ImageNet测试中,iMF表现优异,FID成绩为1.72,超越多步扩散模型,证明其性能可与之媲美。

后生可畏!何恺明团队新成果发布,共一清华姚班大二在读

量子位
量子位 · 2025-12-04T00:50:19Z

华尔街对谷歌TPU的关注引发学术界质疑,认为Meta等公司早已在使用TPU。谷歌与Meta的TPU交易被视为对抗英伟达的策略,但分析认为谷歌的目的不仅是盈利,更是通过合作确保芯片供应。

华尔街尬捧TPU学术界懵了:何恺明5年前就是TPU编程高手,多新鲜

量子位
量子位 · 2025-11-30T02:15:09Z

NeurIPS 2025最佳论文和时间检验奖揭晓,阿里Qwen门控注意力获最佳论文,何恺明的Faster R-CNN获时间检验奖。今年共七篇论文,涉及扩散模型和自监督学习等领域的突破。

NeurIPS 2025放榜:阿里Qwen门控注意力获最佳论文,何恺明Faster R-CNN获时间检验奖

量子位
量子位 · 2025-11-27T03:15:03Z

何恺明团队的新论文提出扩散模型应聚焦于去噪,直接预测干净图像而非噪声。新架构JiT(Just image Transformers)设计简化,避免复杂组件,实验表明其在高维空间中表现优越,生成质量高。

何恺明团队新作:扩散模型可能被用错了

量子位
量子位 · 2025-11-20T02:02:27Z

何恺明重磅新作:Just image Transformers让去噪模型回归基本功

机器之心
机器之心 · 2025-11-19T02:49:41Z

何恺明在MIT新招募了本科生胡珂雅和博士后李宗宜。胡珂雅专注于AI与脑科学结合,已发表多篇高水平论文;李宗宜是傅里叶神经算子的发明者,研究物理方程的神经网络。他们将为何恺明的“AI for Science”方向贡献力量。

何恺明MIT两名新弟子曝光:首次有女生入组,另一位是FNO发明者,均为华人

量子位
量子位 · 2025-11-06T11:11:53Z

LSTM之父Schmidhuber质疑何恺明是残差学习的奠基人,指出早在1991年,Hochreiter已提出循环残差连接以解决梯度消失问题。他认为ResNet等深度学习成果应归功于早期研究,争论已持续多年。

LSTM之父向何恺明开炮:我学生才是残差学习奠基人

量子位
量子位 · 2025-10-19T14:49:10Z

MIT终身教授何恺明近期加盟谷歌DeepMind,担任兼职杰出科学家。他在计算机视觉领域有重要贡献,提出了ResNet等模型,并与谷歌合作推动生成模型研究。

MIT终身教授何恺明,入职谷歌了

量子位
量子位 · 2025-06-26T02:28:08Z

何恺明新身份:谷歌DeepMind杰出科学家

机器之心
机器之心 · 2025-06-26T02:24:42Z

何恺明CVPR最新讲座PPT上线:走向端到端生成建模

机器之心
机器之心 · 2025-06-19T12:15:28Z

何恺明改进了谢赛宁的REPA:极大简化但性能依旧强悍

机器之心
机器之心 · 2025-06-12T10:57:12Z

何恺明的新论文提出了一种名为Dispersive Loss的正则化方法,旨在提升扩散模型的生成效果。该方法无需预训练和数据增强,通过正则化中间表示来增强特征分散性,简化实现并提高生成质量。实验结果显示,Dispersive Loss在多种模型上显著改善生成效果,具有广泛的应用潜力。

何恺明新作:给扩散模型加正则化,无需预训练无需数据增强,超简单实现性能提升

量子位
量子位 · 2025-06-12T09:19:59Z

何恺明团队又发新作: MeanFlow单步图像生成SOTA,提升达50%

机器之心
机器之心 · 2025-05-21T05:09:46Z
何恺明的ResNet,成为21世纪被引量最多论文,Nature最新统计

《自然》杂志统计了21世纪引用最多的论文,排名第一的是微软的ResNets研究,奠定了深度学习的基础。其他高引用论文包括《随机森林》和《Attention is all you need》。AI领域的论文因其广泛应用和快速发展而被频繁引用。

何恺明的ResNet,成为21世纪被引量最多论文,Nature最新统计

机器之心
机器之心 · 2025-04-16T09:38:47Z
没有归一化层的Transformer!刘壮带队,何恺明、Yann LeCun都参与了

何恺明与Yann LeCun合作提出了一种新型Transformer架构Dynamic Tanh(DyT),可替代传统归一化层。DyT通过可学习参数实现输入的非线性压缩,实验结果显示其在多项任务中表现优于或等同于传统方法,且无需调整超参数,具有提升训练和推理速度的潜力。

没有归一化层的Transformer!刘壮带队,何恺明、Yann LeCun都参与了

机器之心
机器之心 · 2025-03-14T07:54:49Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码