VeLU: A Variance Enhanced Learning Unit for Deep Neural Networks

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出VeLU激活函数,通过动态调整输入方差和结合ArcTan-Sin变换,解决了ReLU在梯度流动和优化稳定性方面的不足,实验结果表明其在视觉基准测试中表现优异。

🎯

关键要点

  • 本研究提出VeLU激活函数,旨在解决ReLU在梯度流动和优化稳定性方面的不足。
  • VeLU通过动态调整输入方差,结合ArcTan-Sin变换和Wasserstein-2正则化,缓解协变量偏移。
  • 实验结果表明,VeLU在多项视觉基准测试中表现优异,显著优于现有激活函数。
➡️

继续阅读