小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本文介绍了使用torchrun进行张量并行推理的实验性支持,包括运行命令和示例代码,展示了如何创建提示和采样参数以生成输出,并提到跨进程传递控制消息的技巧。

【vLLM 学习】Torchrun Example

HyperAI超神经
HyperAI超神经 · 2026-02-25T07:43:46Z
使用张量并行在多个GPU上训练大型模型

张量并行是一种模型并行技术,通过在特定维度上分割张量,将计算分配到多个设备,适用于参数量巨大的模型。本文介绍了在PyTorch中实现张量并行的设计和训练步骤。

使用张量并行在多个GPU上训练大型模型

MachineLearningMastery.com
MachineLearningMastery.com · 2025-12-31T21:22:39Z

大语言模型(LLM)的关键在于显卡(GPU),但仅拥有显卡不够。大模型训练需要克服流水线并行和张量并行等挑战。为了提高GPU利用率,可以进行流水线编排优化和梯度压缩技术。此外,还可以考虑异构GPU集群增效、提高GPU集群弹性和提高GPU碎片利用率。在推理任务中,推理时延是关注的指标。为了优化推理任务,需要从新的角度进行优化,如提高内存访问速度。

除了显卡,玩转大模型的门槛还在哪?

少数派
少数派 · 2024-06-26T07:00:00Z

本文介绍了三种模型并行的训练方法:数据并行、张量并行和流水线并行。数据并行适用于大规模数据集的训练,将训练数据按batch维度划分到多个worker设备上并行计算。张量并行适用于巨大型模型,将模型的某些张量按行或列划分到不同设备上并行计算。流水线并行适用于序列数据的长模型训练,将整个模型按层划分为多个连续的阶段,每个阶段由一个设备负责计算。

模型并行训练技术

陈少文的博客
陈少文的博客 · 2024-04-04T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码