在PyTorch中使用PReLU()和ELU()

💡 原文英文,约700词,阅读约需3分钟。
📝

内容提要

PReLU()函数可以从1D或更高维的张量中计算出的零个或多个值中获取1D或更高维的张量。ELU()函数可以从0D或更高维的张量中计算出的零个或多个值中获取0D或更高维的张量。

🎯

关键要点

  • PReLU()函数可以从1D或更高维的张量中计算出零个或多个值。
  • PReLU()的第一个初始化参数是num_parameters,默认为1,表示可学习参数的数量。
  • PReLU()的第二个初始化参数是init,默认为0.25,表示可学习参数的初始值。
  • PReLU()的第三个初始化参数是device,表示设备类型。
  • PReLU()的第四个初始化参数是dtype,表示数据类型。
  • ELU()函数可以从0D或更高维的张量中计算出零个或多个值。
  • ELU()的第一个初始化参数是alpha,默认为1.0,应用于负输入值。
  • ELU()的第二个初始化参数是inplace,默认为False,表示是否进行原地操作。
🏷️

标签

➡️

继续阅读