本文提出了一种新的模型解释评估框架(AXE),该框架不依赖于理想的“真相”解释,提供独立的解释质量衡量标准,能够有效比较模型解释并检测“公平洗涤”现象。
本文介绍了MetaQuantus框架,用于评估解释质量度量方法的性能。实验表明其对噪声和随机性具有鲁棒性。该工具有助于验证和基准测试新度量,提供理论指导,促进可解释人工智能的标准化和可重复性。
该论文回顾了解释性部分原型模型的研究,评估了解释质量,并提出了未来评估方法,旨在推进该研究领域的发展。同时提供了一个简明概括的“Co-12小抄”。
该研究提出了FINER框架,用于生成高保真度和高可理解性的风险检测分类器解释。通过从模型开发者、特征归因设计者和安全专家中获得解释,FINER框架采用解释引导的多任务学习策略提高保真度,并通过任务知识提高可理解性。FINER改善了风险检测的解释质量,并在恶意软件分析方面超过了最先进的工具。
完成下面两步后,将自动完成登录并继续当前操作。