MASALA:基于局部适应的模型无关替代理解
原文中文,约500字,阅读约需2分钟。发表于: 。本研究针对现有局部可解释人工智能方法在选择适当局部区域时面临的困难问题,提出了新的方法MASALA,该方法能够自动确定每个实例的影响模型行为的局部区域。实验表明,MASALA生成的解释在准确性和一致性上优于现有方法,不再需要用户定义敏感的局部超参数。
近年来,人工智能系统的新应用数量大幅增长。其中一种算法决策系统(ADMs)通过人工智能代替人类专家的决策过程。为了确保系统的公平性和透明性,可解释人工智能(XAI)变得越来越重要。本文研究了surrogate模型的逼近效果,并发现即使被歧视的子群体在所有类别上与其他相同,也不会从黑盒ADM系统获得任何正面决策。这一发现对准确定位歧视问题的解决具有重要意义。