利用主成分分析探索神经网络的学习表示

原文约500字,阅读约需1分钟。发表于:

对深度神经网络的特征表示进行理解仍然是可解释人工智能领域中一个开放问题。本研究使用主成分分析(PCA)来研究在 CIFAR-10 上训练的 ResNet-18 的逐层学习表示对 k 最近邻分类器(k-NN)、最近类中心分类器(NCC)和支持向量机的性能的影响。我们发现,在某些层次上,仅需 20% 的中间特征空间方差即可实现高精度分类,并且在所有层次上,前 100 个主成分完全决定了 k-NN 和 NCC 分类器的性能。我们将研究结果与神经崩溃现象联系起来,并提供了中间神经崩溃相关现象的部分证据。我们的初步工作利用线性仿射模型展示了三个不同但可解释的特征表示的代理模型,其中性能最好的是仿射线性模型。我们还展示了利用几个代理模型来估计 DNN 中可能开始出现神经崩溃的聪明方法。

本研究使用PCA研究ResNet-18在CIFAR-10上的逐层学习表示对分类器性能的影响。研究发现,20%的中间特征空间方差即可实现高精度分类,前100个主成分完全决定了k-NN和NCC分类器的性能。研究还提供了中间神经崩溃相关现象的部分证据,并展示了利用代理模型来估计DNN中可能开始出现神经崩溃的聪明方法。

相关推荐 去reddit讨论