本研究探讨了视觉Transformer的解释性方法,并提出了分类法和评价标准。还提供了解释性工具和框架。未来需进一步研究增强视觉Transformer的可解释性。
本研究探讨了视觉Transformer的解释性方法,并提出了分类法。提供了评价标准、工具和框架,突出了增强解释性的未开发方面,并提出未来研究方向。
本文介绍了一种新方法:DecoderLens,用于解释Transformer模型的内部状态。DecoderLens允许解码器跨层交叉注意到编码器层的表示,将不可解释的向量表示映射为可解释的单词或符号序列。该方法应用于问答、逻辑推理、语音识别和机器翻译模型,揭示了在低层或中间层解决的几个特定子任务。
研究提出了一种基于规则的解释性方法TNTRules,通过多目标优化生成高质量解释,弥合了Bayesian optimization和XAI之间的差距。评估证明了TNTRules在生成高质量解释方面优于现有的XAI方法。该研究为BO和XAI的交叉领域做出了贡献,提供了可解释的优化技术。
本文介绍了一种解释深度学习模型决策的方法,使用梯度法、特征可视化和多实例学习等技术,在 Camelyon-16 数据集上训练,提出了一种新型计算解释性幻灯片级别热图的方法,可以提高瓦片级分类性能达 29% 以上。
该论文评估了扰动解释性方法在图神经网络中的作用,发现某些方法在噪声存在时表现出较高的效果和稳定性。同时,反事实解释方法在特定领域的拓扑约束下存在可行性问题。研究提出了进一步改进的研究问题和实际应用的影响。
完成下面两步后,将自动完成登录并继续当前操作。