自监督模型的多向量塔克显著性图的CNN可解释性
💡
原文中文,约2200字,阅读约需6分钟。
📝
内容提要
本研究提出塔克显著性图(TSM)方法,显著提升卷积神经网络(CNN)在自监督模型中的可解释性,相较于EigenCAM提高约50%。通过塔克张量分解,生成高保真度显著性图,解决了可解释性问题。
🎯
关键要点
-
本研究提出塔克显著性图(TSM)方法,显著提升卷积神经网络(CNN)在自监督模型中的可解释性。
-
TSM方法通过塔克张量分解,生成高保真度显著性图,解决了可解释性问题。
-
与EigenCAM相比,TSM在增强可解释性方面提高了约50%。
-
可解释性仍然是自监督模型面临的重要挑战,现有方法存在应用限制。
-
TSM方法扩展了EigenCAM为多向量变种,捕捉特征图的固有结构。
➡️