PyTorch中的激活函数 (5)

💡 原文英文,约600词,阅读约需2分钟。
📝

内容提要

文章介绍了几种常用的激活函数及其优缺点。Tanh和Softsign将输入转换为-1到1,Sigmoid转换为0到1,Softmax用于多分类,输出总和为1。这些函数有助于归一化和稳定收敛,但可能导致梯度消失和计算复杂。PyTorch中有这些函数的实现。

🎯

关键要点

  • 文章介绍了几种常用的激活函数及其优缺点。

  • Tanh函数将输入值转换为-1到1,公式为y = (e^x - e^-x) / (e^x + e^-x)。

  • Tanh的优点包括归一化输入值、稳定收敛、减轻梯度爆炸问题和死亡ReLU问题。

  • Tanh的缺点是导致梯度消失问题,且计算复杂。

  • Softsign函数将输入值转换为-1到1,公式为y = x / (1 + |x|)。

  • Softsign的优点包括归一化输入值、稳定收敛、减轻梯度爆炸问题。

  • Softsign的缺点是导致梯度消失问题。

  • Sigmoid函数将输入值转换为0到1,公式为y = 1 / (1 + e^-x)。

  • Sigmoid的优点包括归一化输入值、稳定收敛、减轻梯度爆炸问题和避免死亡ReLU问题。

  • Sigmoid的缺点是导致梯度消失问题,且计算复杂。

  • Softmax函数将输入值转换为0到1,且输出总和为1,适用于多分类模型。

  • Softmax的优点包括归一化输入值、稳定收敛、减轻梯度爆炸问题和避免死亡ReLU问题。

  • Softmax的缺点是导致梯度消失问题,且计算复杂。

➡️

继续阅读