让Sigmoid-MSE重焕辉煌:输出重置挑战神经网络分类中的Softmax交叉熵

💡 原文中文,约500字,阅读约需2分钟。
📝

内容提要

本研究比较了神经网络中的均方误差(MSE)和Softmax交叉熵(SCE)目标函数,提出了一种新颖的输出重置算法,以增强分类器的鲁棒性。实验结果表明,结合sigmoid激活的MSE在噪声数据下表现更佳。

🎯

关键要点

  • 本研究比较了神经网络中的均方误差(MSE)和Softmax交叉熵(SCE)目标函数。

  • 提出了一种新颖的输出重置算法,以减少不一致错误并增强分类器的鲁棒性。

  • 实验结果表明,结合sigmoid激活的MSE在噪声数据下表现更佳。

  • MSE为分类问题提供了有效的替代方案。

➡️

继续阅读