您能相信您的解释吗?特征归因方法的健壮性测试
原文中文,约400字,阅读约需1分钟。发表于: 。评估对非敌对扰动的稳健性并分析神经网络和表格数据集上应用的可解释 AI 方法的稳健性,展示如何利用流形假设和集成方法对稳健性进行深入分析。
近年来,面向可解释人工智能(XAI)的高速范式转变已出现。提出了一种针对流行的XAI的模型不可知方法SHapley Additive exPlanations(Shap),解决XAI和建模技术之间的不一致问题。通过算法生成相对特征重要性,并提出了特征重要性方法论的分类体系。观察了几个数据集中解释模型之间的可量化相似性。