小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
GRPO

深度学习训练速度主要受内存瓶颈和计算瓶颈的限制,前者是内存访问时间,后者是计算时间。

GRPO

informal
informal · 2025-05-19T16:00:00Z

本研究提出了一种自我推测解码(ASD)方法,旨在解决去噪扩散概率模型(DDPMs)推理中的计算瓶颈,显著提高推理速度。ASD在并行运行时的速度比传统方法快约$ ilde{O}(K^{ rac{1}{3}})$。

The Hidden Commutativity of Diffusion Models: Parallelizing DDPMs through Self-Speculation

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-06T00:00:00Z
清华稀疏Attention,无需训练加速一切模型!

清华大学陈键飞团队提出的稀疏注意力机制SpargeAttn,无需训练即可加速多种模型,推理速度提升4-7倍,同时保持端到端精度,有效解决长序列任务的计算瓶颈。

清华稀疏Attention,无需训练加速一切模型!

机器之心
机器之心 · 2025-03-27T02:28:37Z

本研究提出了一种名为LightMotion的轻量级相机运动控制视频生成方法,解决了现有方法在微调和推理中的计算瓶颈。通过潜在空间的置换和重采样,LightMotion有效模拟相机运动,提升了生成质量,优于现有技术。

一种轻量且无需调优的视频生成中的相机运动模拟方法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-09T00:00:00Z
首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

AIxiv专栏促进学术交流,报道超过2000篇研究。吴梓阳等提出的Token Statistics Transformer (ToST)通过线性时间注意力机制提升效率,解决传统Transformer的计算瓶颈,表现优异,具有广泛应用潜力。

首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

机器之心
机器之心 · 2025-02-17T02:19:50Z
roofline model

Roofline模型通过运算强度与带宽分析计算性能。运算强度是运算量与访存量的比值。图中红色区域表示带宽瓶颈,绿色区域表示计算瓶颈。优化策略包括提高算力和带宽,需根据不同瓶颈选择合适的优化方法。

roofline model

plus studio
plus studio · 2024-04-10T23:28:00Z

该论文介绍了一种名为DDSM的新型框架,通过使用自适应调整的神经网络解决了生成过程中的计算瓶颈问题,提高了扩散模型的效率,并且可以与其他扩散模型集成,不影响生成质量。

去噪扩散自适应模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-05T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码