自监督模型的多向量塔克显著性图的CNN可解释性
原文中文,约2200字,阅读约需6分钟。发表于: 。本研究解决了卷积神经网络(CNN)可解释性面临的挑战,特别是在自监督模型中的应用限制。提出的塔克显著性图(TSM)方法通过利用塔克张量分解,捕捉特征图的固有结构,从而生成高保真度的显著性图,并将EigenCAM扩展为多向量变种,显著提升了自监督模型的可解释性。最重要的发现是,TSM在增强可解释性方面比EigenCAM提高了约50%。
本研究提出塔克显著性图(TSM)方法,显著提升卷积神经网络(CNN)在自监督模型中的可解释性,相较于EigenCAM提高约50%。通过塔克张量分解,生成高保真度显著性图,解决了可解释性问题。