SwishReLU: 增强深度神经网络性能的激活函数的统一方法
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文介绍了一种新的激活函数SwishReLU,结合了ReLU和Swish的元素。研究发现SwishReLU在计算成本较低的同时,性能优于ReLU。在CIFAR-10数据集上应用于VGG16模型可以提高6%的准确率。
🎯
关键要点
- 本文介绍了一种新的激活函数SwishReLU,结合了ReLU和Swish的元素。
- 研究发现SwishReLU在计算成本较低的同时,性能优于ReLU。
- 使用不同类型的ReLU变体与SwishReLU在三个数据集上进行了比较。
- 在CIFAR-10数据集上,将SwishReLU应用于VGG16模型可以提高6%的准确率。
➡️