💡
原文英文,约800词,阅读约需3分钟。
📝
内容提要
文章介绍了GRU层的初始化参数和使用方法。GRU可以处理2D或3D张量。初始化参数包括输入大小、隐藏层大小、层数、偏置、批处理优先、丢弃率、双向、设备和数据类型等。示例代码展示了如何在PyTorch中使用GRU进行张量计算,并解释了各参数的作用和默认值。
🎯
关键要点
-
文章介绍了GRU层的初始化参数和使用方法。
-
GRU可以处理2D或3D张量。
-
初始化参数包括输入大小、隐藏层大小、层数、偏置、批处理优先、丢弃率、双向、设备和数据类型等。
-
示例代码展示了如何在PyTorch中使用GRU进行张量计算。
-
各参数的作用和默认值被详细解释。
-
输入大小(input_size)是必需的,必须大于等于0。
-
隐藏层大小(hidden_size)是必需的,必须大于等于1。
-
层数(num_layers)是可选的,默认值为1,必须大于等于1。
-
偏置(bias)是可选的,默认值为True。
-
批处理优先(batch_first)是可选的,默认值为False。
-
丢弃率(dropout)是可选的,默认值为0.0,必须在0到1之间。
-
双向(bidirectional)是可选的,默认值为False。
-
设备(device)和数据类型(dtype)是可选的,默认值为None。
-
输入张量的设备和数据类型必须与GRU层一致。
-
示例代码展示了如何使用GRU进行张量计算,并验证了输出的梯度属性。
➡️