SwishReLU: 增强深度神经网络性能的激活函数的统一方法

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文介绍了一种新的激活函数SwishReLU,结合了ReLU和Swish的元素。研究发现SwishReLU在计算成本较低的同时,性能优于ReLU。在CIFAR-10数据集上应用于VGG16模型可以提高6%的准确率。

🎯

关键要点

  • 本文介绍了一种新的激活函数SwishReLU,结合了ReLU和Swish的元素。
  • 研究发现SwishReLU在计算成本较低的同时,性能优于ReLU。
  • 使用不同类型的ReLU变体与SwishReLU在三个数据集上进行了比较。
  • 在CIFAR-10数据集上,将SwishReLU应用于VGG16模型可以提高6%的准确率。
➡️

继续阅读