使用张量并行在多个GPU上训练大型模型

使用张量并行在多个GPU上训练大型模型

MachineLearningMastery.com MachineLearningMastery.com ·

张量并行是一种模型并行技术,通过在特定维度上分割张量,将计算分配到多个设备,适用于参数量巨大的模型。本文介绍了在PyTorch中实现张量并行的设计和训练步骤。

原文英文,约15300词,阅读约需56分钟。
阅读原文