小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
沉浸式翻译 immersive translate

何恺明NeurIPS 2025演讲盘点:视觉目标检测三十年

机器之心
机器之心 · 2025-12-11T10:20:27Z

何恺明团队推出了改进版单步生成模型iMF,解决了训练的稳定性和效率问题。在ImageNet测试中,iMF表现优异,FID成绩为1.72,超越多步扩散模型,证明其性能可与之媲美。

后生可畏!何恺明团队新成果发布,共一清华姚班大二在读

量子位
量子位 · 2025-12-04T00:50:19Z

华尔街对谷歌TPU的关注引发学术界质疑,认为Meta等公司早已在使用TPU。谷歌与Meta的TPU交易被视为对抗英伟达的策略,但分析认为谷歌的目的不仅是盈利,更是通过合作确保芯片供应。

华尔街尬捧TPU学术界懵了:何恺明5年前就是TPU编程高手,多新鲜

量子位
量子位 · 2025-11-30T02:15:09Z

NeurIPS 2025最佳论文和时间检验奖揭晓,阿里Qwen门控注意力获最佳论文,何恺明的Faster R-CNN获时间检验奖。今年共七篇论文,涉及扩散模型和自监督学习等领域的突破。

NeurIPS 2025放榜:阿里Qwen门控注意力获最佳论文,何恺明Faster R-CNN获时间检验奖

量子位
量子位 · 2025-11-27T03:15:03Z

何恺明团队的新论文提出扩散模型应聚焦于去噪,直接预测干净图像而非噪声。新架构JiT(Just image Transformers)设计简化,避免复杂组件,实验表明其在高维空间中表现优越,生成质量高。

何恺明团队新作:扩散模型可能被用错了

量子位
量子位 · 2025-11-20T02:02:27Z

何恺明重磅新作:Just image Transformers让去噪模型回归基本功

机器之心
机器之心 · 2025-11-19T02:49:41Z

何恺明在MIT新招募了本科生胡珂雅和博士后李宗宜。胡珂雅专注于AI与脑科学结合,已发表多篇高水平论文;李宗宜是傅里叶神经算子的发明者,研究物理方程的神经网络。他们将为何恺明的“AI for Science”方向贡献力量。

何恺明MIT两名新弟子曝光:首次有女生入组,另一位是FNO发明者,均为华人

量子位
量子位 · 2025-11-06T11:11:53Z

LSTM之父Schmidhuber质疑何恺明是残差学习的奠基人,指出早在1991年,Hochreiter已提出循环残差连接以解决梯度消失问题。他认为ResNet等深度学习成果应归功于早期研究,争论已持续多年。

LSTM之父向何恺明开炮:我学生才是残差学习奠基人

量子位
量子位 · 2025-10-19T14:49:10Z

MIT终身教授何恺明近期加盟谷歌DeepMind,担任兼职杰出科学家。他在计算机视觉领域有重要贡献,提出了ResNet等模型,并与谷歌合作推动生成模型研究。

MIT终身教授何恺明,入职谷歌了

量子位
量子位 · 2025-06-26T02:28:08Z

何恺明新身份:谷歌DeepMind杰出科学家

机器之心
机器之心 · 2025-06-26T02:24:42Z

何恺明CVPR最新讲座PPT上线:走向端到端生成建模

机器之心
机器之心 · 2025-06-19T12:15:28Z

何恺明改进了谢赛宁的REPA:极大简化但性能依旧强悍

机器之心
机器之心 · 2025-06-12T10:57:12Z

何恺明的新论文提出了一种名为Dispersive Loss的正则化方法,旨在提升扩散模型的生成效果。该方法无需预训练和数据增强,通过正则化中间表示来增强特征分散性,简化实现并提高生成质量。实验结果显示,Dispersive Loss在多种模型上显著改善生成效果,具有广泛的应用潜力。

何恺明新作:给扩散模型加正则化,无需预训练无需数据增强,超简单实现性能提升

量子位
量子位 · 2025-06-12T09:19:59Z

何恺明团队又发新作: MeanFlow单步图像生成SOTA,提升达50%

机器之心
机器之心 · 2025-05-21T05:09:46Z
何恺明的ResNet,成为21世纪被引量最多论文,Nature最新统计

《自然》杂志统计了21世纪引用最多的论文,排名第一的是微软的ResNets研究,奠定了深度学习的基础。其他高引用论文包括《随机森林》和《Attention is all you need》。AI领域的论文因其广泛应用和快速发展而被频繁引用。

何恺明的ResNet,成为21世纪被引量最多论文,Nature最新统计

机器之心
机器之心 · 2025-04-16T09:38:47Z
没有归一化层的Transformer!刘壮带队,何恺明、Yann LeCun都参与了

何恺明与Yann LeCun合作提出了一种新型Transformer架构Dynamic Tanh(DyT),可替代传统归一化层。DyT通过可学习参数实现输入的非线性压缩,实验结果显示其在多项任务中表现优于或等同于传统方法,且无需调整超参数,具有提升训练和推理速度的潜力。

没有归一化层的Transformer!刘壮带队,何恺明、Yann LeCun都参与了

机器之心
机器之心 · 2025-03-14T07:54:49Z

何恺明与LeCun提出的DyT(动态Tanh)模块可替代Transformer中的归一化层,性能相当且加速,已开源。DyT模块仅需9行代码,适用于多种模型,实验表明其在效率和效果上优于传统归一化方法。

何恺明LeCun改造Transformer!9行代码替代归一化性能不减还加速

量子位
量子位 · 2025-03-14T07:39:46Z

何恺明团队提出了一种新方法,将去噪技术与哈密顿神经网络结合,克服了传统机器学习在物理问题上的局限。该方法通过Block-wise哈密顿量设计和掩码建模策略,提升了模型在正向模拟、表征学习和轨迹插值任务中的准确性和鲁棒性。

何恺明带队驯服AI更懂物理!去噪方法+哈密顿网络,清华校友一作

量子位
量子位 · 2025-03-14T01:26:41Z
将哈密顿力学泛化到神经算子,何恺明团队又发新作,实现更高级物理推理

何恺明等研究者提出的去噪哈密顿网络(DHN)结合物理约束与神经网络的灵活性,旨在克服物理推理中的局限性。DHN能够捕获非局部时间关系,减轻数值误差,并支持多系统建模。实验结果显示,DHN在轨迹预测、物理参数推断和超分辨率插值等任务中表现优异,推动了物理推理的研究进展。

将哈密顿力学泛化到神经算子,何恺明团队又发新作,实现更高级物理推理

机器之心
机器之心 · 2025-03-12T06:30:56Z

何恺明团队提出的分形生成模型显著提高了计算效率4000倍,实现了高分辨率逐像素图像生成。该模型通过模块化设计和递归调用,能够处理高维非序列数据,展现出在计算机视觉等领域的潜力。

何恺明开辟分形生成模型新范式!计算效率提高4000倍,首次实现高分辨率逐像素生成

量子位
量子位 · 2025-02-26T04:50:53Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码