本地通用基于规则的解释

原文约300字,阅读约需1分钟。发表于:

本研究提出了一种基于规则的 Local Universal Explainer(LUX)模型,可以生成事实、反事实和视觉解释,通过修改决策树算法实现倾斜分割和与 SHAP 或 LIME 等特征重要性 XAI 方法的集成。该方法通过选择对解释模型的决策边界形成具有最高影响力的真实数据的高密度聚类的局部概念,而不使用数据生成,测试表明它在简单性、全局保真度和代表性等方面优于当前现有的 LORE、EXPLAN 和 Anchor 等基于规则的解释方法。

本文介绍了一种基于规则的解释模型 LUX,可以生成事实、反事实和视觉解释,通过修改决策树算法实现倾斜分割和与 SHAP 或 LIME 等特征重要性 XAI 方法的集成。该方法通过选择对解释模型的决策边界形成具有最高影响力的真实数据的高密度聚类的局部概念,而不使用数据生成,测试表明它在简单性、全局保真度和代表性等方面优于当前现有的 LORE、EXPLAN 和 Anchor 等基于规则的解释方法。

相关推荐 去reddit讨论