在PyTorch中使用PReLU()和ELU()
💡
原文英文,约700词,阅读约需3分钟。
📝
内容提要
PReLU()函数可以从1D或更高维的张量中计算出的零个或多个值中获取1D或更高维的张量。ELU()函数可以从0D或更高维的张量中计算出的零个或多个值中获取0D或更高维的张量。
🎯
关键要点
- PReLU()函数可以从1D或更高维的张量中计算出零个或多个值。
- PReLU()的第一个初始化参数是num_parameters,默认为1,表示可学习参数的数量。
- PReLU()的第二个初始化参数是init,默认为0.25,表示可学习参数的初始值。
- PReLU()的第三个初始化参数是device,表示设备类型。
- PReLU()的第四个初始化参数是dtype,表示数据类型。
- ELU()函数可以从0D或更高维的张量中计算出零个或多个值。
- ELU()的第一个初始化参数是alpha,默认为1.0,应用于负输入值。
- ELU()的第二个初始化参数是inplace,默认为False,表示是否进行原地操作。
🏷️
标签
➡️