本研究探讨深度视觉模型的可解释性,提出了解释链(CoE)方法,通过自动解码视觉概念,创建全球概念解释数据集,并设计多义性解开与过滤机制。实验结果表明,CoE在解释性得分上平均提高了36%。
该论文提出了一种新的概念学习框架,用于增强视觉分类任务中模型的可解释性和性能。通过将非监督解释生成器附加到主分类器网络中,并利用对抗训练的方式,使模型从潜在表征中提取视觉概念并与人可解释的视觉属性隐式对齐。实验结果验证了该方法的稳健性和产生一致的概念激活。研究还探讨了对抗训练协议中的扰动对分类和概念获取的影响。该研究为构建具有任务对齐概念表征的内在可解释深度视觉模型提供了显著进展,为开发可信任的人工智能提供了关键支持。
本研究探讨了在深度视觉模型中使用标准编解码器的影响。结果发现,使用JPEG和H.264编码会显著降低各类视觉任务和模型的准确性,尤其是在语义分割方面下降了超过80%。研究还扩展到其他领域,提供了更全面的观点。
完成下面两步后,将自动完成登录并继续当前操作。