小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

大语言模型在GPU上运行时的显存占用主要包括模型参数、梯度、优化器状态、激活值和KV缓存。以7B模型为例,推理时显存需求约为18.8GB,训练时可达114GB。显存需求受参数量、精度、批量大小和序列长度影响。可通过量化和高效微调等技术降低显存占用。

大模型GPU显存算力需求计算

安志合的学习博客
安志合的学习博客 · 2026-03-03T15:00:06Z
华为GTS LocMoE+:高可扩展性亲和度 MoE 架构,低开销实现主动路由

华为GTS AI计算Lab的研究团队提出了LocMoE+架构,结合了传统的被动路由和专家主动路由机制,通过提高处理判别性token的概率来降低样本噪声和提升训练效率。实验结果表明,LocMoE+可以减少每个专家需要处理的token数量,并提高训练效率,同时减少显存占用。该架构在通用知识和领域知识上的能力也得到了评估。

华为GTS LocMoE+:高可扩展性亲和度 MoE 架构,低开销实现主动路由

机器之心
机器之心 · 2024-07-19T06:35:00Z
ICML 2024 | 梯度检查点太慢?不降速、省显存,LowMemoryBP大幅提升反向传播显存效率

南开大学研究团队在ICML 2024上发表论文,提出Approx-BP和MS-BP两种反向传播改进策略,可显著减少微调过程中的显存占用。实验结果显示,这两种策略能有效降低Transformer模型微调的峰值显存占用,且不影响训练速度和精度,为显存节省提供新方案。

ICML 2024 | 梯度检查点太慢?不降速、省显存,LowMemoryBP大幅提升反向传播显存效率

机器之心
机器之心 · 2024-07-12T06:58:28Z

本文介绍了Multi-Query Attention技术,可共享Key和Value矩阵,提高推理速度和降低显存占用。MQA和MHA在代码实现上有差异,本地加载ChatGLM2-6B模型。基于P-Tuning v2的微调方法可将参数量减少到原来的0.1%,微调后的模型效果更好。

通透理解FlashAttention与FlashAttention2:全面降低显存读写、加快计算速度

结构之法 算法之道
结构之法 算法之道 · 2023-10-06T12:08:32Z
未来最理想的AI P图软件——DragGAN 抢先体验与本地部署教程

本文介绍了 DragGAN 的第三方实现版本,并提供了在线体验和本地部署的方法。安装 Conda 和 PyTorch,使用 pip 安装 DragGAN,通过命令行运行 DragGAN 的 Demo。界面功能包括选择模型、分辨率和显存占用。

未来最理想的AI P图软件——DragGAN 抢先体验与本地部署教程

无名小站
无名小站 · 2023-08-23T06:58:36Z
谁动了我的显存?——深度学习训练过程显存占用分析及优化

在大语言模型时代,显存不足是一个突出问题。本文分析了深度学习训练中的显存占用,包括框架、模型参数和特征相关的占用。通过样例程序展示了不同情况下的显存需求。使用torch.autograd.Function实现算子融合可以节约显存开销。介绍了查看pytorch自带算子保存的变量的方法。

谁动了我的显存?——深度学习训练过程显存占用分析及优化

知乎每日精选
知乎每日精选 · 2023-07-06T10:47:02Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码