让Sigmoid-MSE重焕辉煌:输出重置挑战神经网络分类中的Softmax交叉熵
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
本研究比较了神经网络中的均方误差(MSE)和Softmax交叉熵(SCE)目标函数,提出了一种新颖的输出重置算法,以增强分类器的鲁棒性。实验结果表明,结合sigmoid激活的MSE在噪声数据下表现更佳。
🎯
关键要点
-
本研究比较了神经网络中的均方误差(MSE)和Softmax交叉熵(SCE)目标函数。
-
提出了一种新颖的输出重置算法,以减少不一致错误并增强分类器的鲁棒性。
-
实验结果表明,结合sigmoid激活的MSE在噪声数据下表现更佳。
-
MSE为分类问题提供了有效的替代方案。
➡️