模型并行训练技术

原文约1500字,阅读约需4分钟。发表于:

1. 数据并行 训练步骤: master 设备加载模型,并将模型参数复制到每个 worker 设备 master 设备按照 batch 维度划分训练数据,将每个 batch 传递给每个 worker 设备 每个 worker 设备进行训练 master 设备汇总每个 worker 设备的梯度,更新模型参数 master 设备广播模型参数到每个 worker 设备,准备下一个 batch 训练 核心思想: 将训练

本文介绍了三种模型并行的训练方法:数据并行、张量并行和流水线并行。数据并行适用于大规模数据集的训练,将训练数据按batch维度划分到多个worker设备上并行计算。张量并行适用于巨大型模型,将模型的某些张量按行或列划分到不同设备上并行计算。流水线并行适用于序列数据的长模型训练,将整个模型按层划分为多个连续的阶段,每个阶段由一个设备负责计算。

相关推荐 去reddit讨论