小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
在线教程丨低门槛部署英伟达最新Physical AI模型,覆盖人形机器人/人体运动生成/扩散模型微调等

在GTC 2026上,NVIDIA推出了Physical AI概念,强调AI与现实世界的深度结合。发布了Isaac GR00T、Kimodo和SOMA-X等开源项目,旨在提升机器人在复杂环境中的执行能力,使其更自然、高效地完成任务。

在线教程丨低门槛部署英伟达最新Physical AI模型,覆盖人形机器人/人体运动生成/扩散模型微调等

HyperAI超神经
HyperAI超神经 · 2026-03-25T05:49:56Z
ICLR 2026 | 火山引擎多媒体实验室提出GenDR, 探索扩散模型超分落地难题

扩散模型在图像生成方面取得了重要进展,但由于推理步骤多和分辨率限制,实际应用受到制约。为提高效率和图像保真度,提出了GenDR和GenDR-Pix模型,优化了VAE和UNet,支持高分辨率图像处理,增强了细节恢复效果,推动生成技术与实际业务的结合。

ICLR 2026 | 火山引擎多媒体实验室提出GenDR, 探索扩散模型超分落地难题

实时互动网
实时互动网 · 2026-03-04T06:39:12Z
何恺明团队再出大招:Drifting Models 挑战扩散模型,单步生成高质量图像

何恺明团队在arXiv发布了《Generative Modeling via Drifting》论文,提出了Drifting Models生成模型,训练时分布逐步漂移,推理时仅需一步生成,速度提升100倍,质量更佳,标志着生成模型领域的重要转折,期待广泛应用。

何恺明团队再出大招:Drifting Models 挑战扩散模型,单步生成高质量图像

Micropaper
Micropaper · 2026-03-03T00:30:00Z
Inception表示其扩散语言模型比Claude、ChatGPT和Gemini快10倍

Inception Labs推出了基于扩散模型的语言模型Mercury 2,其速度比传统自回归模型快5到10倍,采用并行计算优化响应时间。尽管生成文本质量与Claude Haiku和Google Flash相当,但在经济性上更具优势。Mercury 2现已通过OpenAI兼容API提供。

Inception表示其扩散语言模型比Claude、ChatGPT和Gemini快10倍

The New Stack
The New Stack · 2026-03-02T21:30:30Z
扩散模型成最快深度思考!告别自回归每秒1009个tokens,英伟达微软都投了

扩散模型Mercury 2成为最快的生成模型,生成速度达到每秒1009个tokens,比传统自回归模型快5倍。其并行优化机制提升了生成速度,并在性能和成本上具有优势。Inception Labs专注于扩散模型,致力于突破速度与成本的瓶颈。

扩散模型成最快深度思考!告别自回归每秒1009个tokens,英伟达微软都投了

量子位
量子位 · 2026-02-26T02:03:18Z
ICLR 2026 | 把视频扩散模型压到4bit,还能接近满血效果? QVGen让「超低比特视频生成量化」真正可用

抱歉,提供的文本内容过于简短,无法进行有效总结。请提供更详细的文章内容。

ICLR 2026 | 把视频扩散模型压到4bit,还能接近满血效果? QVGen让「超低比特视频生成量化」真正可用

机器之心
机器之心 · 2026-02-25T10:07:08Z
RISE——组合式世界模型驱动的RL框架:基于视频扩散模型预测的未来视觉状态,和VLA估计的进度价值评估,以先离线预热后在线改进

RISE是一个通过想象进行机器人强化学习的框架,旨在提升视觉-语言-动作模型在复杂任务中的鲁棒性。它结合动力学预测和价值估计,利用组合式世界模型生成高效学习信号,表现优于传统强化学习方法,能够有效应对动态适应性和精确性要求的任务。

RISE——组合式世界模型驱动的RL框架:基于视频扩散模型预测的未来视觉状态,和VLA估计的进度价值评估,以先离线预热后在线改进

结构之法 算法之道
结构之法 算法之道 · 2026-02-18T15:07:31Z
速度提升,能力却暴跌?扩散模型做智能体的残酷真相

抱歉,您提供的文本内容过于简短,无法进行有效的总结。请提供更详细的文章内容。

速度提升,能力却暴跌?扩散模型做智能体的残酷真相

机器之心
机器之心 · 2026-02-12T06:52:01Z

蚂蚁技术研究院推出的LLaDA2.1扩散模型在编程任务中实现892 tokens/秒的速度,标志着研究模型向实用工具的转变。其双模式设计允许用户根据需求选择速度或质量,克服了传统模型的局限性。LLaDA2.1在速度和质量上均表现优异,开源版本提供了轻量化选择。

小众架构赢麻了!通过编辑功能让100B扩散模型飙出892 tokens/秒的速度!

量子位
量子位 · 2026-02-11T02:06:53Z
基于超2万条配方,MIT等采用扩散模型规划材料合成,成功制备硅铝比高达19的新型沸石材料

DiffSyn模型通过分析23,000条文献生成材料合成路线,有效解决了合成方法的问题。在沸石合成中,该模型表现出色,成功制备出Si/Al比高达19.0的UFI型沸石,展示了其在材料研究中的应用潜力。

基于超2万条配方,MIT等采用扩散模型规划材料合成,成功制备硅铝比高达19的新型沸石材料

HyperAI超神经
HyperAI超神经 · 2026-02-09T08:19:05Z

何恺明团队提出的Pixel Mean Flow(pMF)方法简化了扩散模型,直接在像素空间生成图像,省去了多步采样和潜空间。pMF在ImageNet上取得最佳FID成绩,验证了单步生成的可行性,推动了生成建模的进步。

何恺明带大二本科生颠覆扩散图像生成:扔掉多步采样和潜空间,一步像素直出

量子位
量子位 · 2026-02-02T07:54:05Z

千问C端应用团队的四篇论文入选2026国际学习表征会议,重点研究扩散模型、多轮对话决策和信息验证等关键问题,推动AI助手在复杂场景中的应用,提高其稳定性和可靠性。

千问C端应用团队一口气四篇论文入选ICLR 2026国际顶会!

量子位
量子位 · 2026-01-30T08:53:50Z
Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

抱歉,您提供的文本内容过于简短,无法进行有效的总结。请提供更多信息或更长的文本。

Sebastian Raschka 2026预测:Transformer统治依旧,但扩散模型正悄然崛起

机器之心
机器之心 · 2026-01-14T06:41:22Z

Qwen—Image—Layered模型被认为优于Nano Banana,具备图像分层编辑能力,支持细节修改和透明度处理,适合海报制作。其核心技术为扩散模型,能够将图片拆分为多个可编辑图层,提高图像处理的灵活性和效率。

ViT一作盛赞:这个中国开源“PS模型”强过Nano Banana

量子位
量子位 · 2025-12-29T05:05:54Z
让扩散模型「可解释」不再降质,开启图片编辑新思路

抱歉,您提供的文本内容过于简短,无法进行有效的总结。请提供更详细的文章内容。

让扩散模型「可解释」不再降质,开启图片编辑新思路

机器之心
机器之心 · 2025-12-16T02:45:50Z
DarkDiff:通过重新利用扩散模型推动低光环境下的原始图像增强

本文介绍了一种新框架,通过重新利用预训练的生成扩散模型来增强低光环境下的原始图像。该方法在三种低光原始图像基准测试中表现优于现有技术,能够更好地恢复图像细节和颜色,克服了传统算法的不足。

DarkDiff:通过重新利用扩散模型推动低光环境下的原始图像增强

Apple Machine Learning Research
Apple Machine Learning Research · 2025-12-16T00:00:00Z

蚂蚁集团赵俊博在MEET2026大会上介绍了扩散模型的优势,指出其可直接修改token,从而提升生成速度和降低计算成本。他们开源了LLaDA 2.0,首次实现千亿参数的扩散语言模型,引发行业关注。

跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026

量子位
量子位 · 2025-12-12T04:38:27Z
NUS LV Lab新作|FeRA:基于「频域能量」动态路由,打破扩散模型微调的静态瓶颈

AI短名单是对长篇文章的简要概述,旨在提炼出核心内容。

NUS LV Lab新作|FeRA:基于「频域能量」动态路由,打破扩散模型微调的静态瓶颈

机器之心
机器之心 · 2025-12-12T03:31:29Z
Inception Labs:提升大型语言模型的速度与成本效益

AI领袖Andrej Karpathy指出,Inception Labs的扩散模型在并行生成令牌方面表现出色,速度比自回归模型快5到10倍,适用于编码和语音应用。Inception专注于高效的API集成,成本低,适合多种用例。

Inception Labs:提升大型语言模型的速度与成本效益

The New Stack
The New Stack · 2025-12-11T20:00:52Z
DiT-Air:重新审视文本到图像生成中扩散模型架构设计的效率

本文研究了扩散变换器(DiTs)在文本到图像生成中的效率,分析了架构选择和训练策略。结果表明,标准DiT在性能上与专门模型相当,但参数效率更高。通过层级参数共享策略,DiT-Air和DiT-Air-Lite在保持竞争力的同时,模型尺寸减少了66%。DiT-Air在GenEval和T2I CompBench上表现优异。

DiT-Air:重新审视文本到图像生成中扩散模型架构设计的效率

Apple Machine Learning Research
Apple Machine Learning Research · 2025-12-11T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码