近年来,可解释人工智能(XAI)快速发展,关注如何解释复杂模型的数据。针对Shapley Additive Explanations(Shap),提出了一种模型不可知的方法,通过系统扰动分析生成特征重要性。该算法在动态推理下评估机器学习和深度学习的解释质量,并提出特征重要性方法的分类体系,衡量一致性和模型间相似性。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: