本研究探讨了因果推断与可解释人工智能中反事实的使用差异,提出了反事实的正式定义,并分析了其在这两个领域的应用,促进了CI与XAI的融合。
本研究探讨了图像分类模型信心缺失的原因,并提出了五种生成高能力反事实图像的新方法。这些反事实图像显著提高了多模态大语言模型对低模型能力原因的解释准确性,强调了反事实图像在解释低感知模型能力中的重要性。
本研究提出了一种新方法,将不确定性估计技术融入反事实解释中,以提高其真实性。结果表明,传统方法显著降低了预测误差,增强了反事实的科学价值,特别是在处理不符合分布的数据时,突显了其在可解释人工智能中的重要性。
本研究提出了一种局部反事实生成方法,旨在减少基础模型中的社会偏见。通过自动遮罩和引导修复,限制反事实修改在特定属性区域,保持图像上下文,提高性别反事实的视觉和语义保真度。这为创建平衡数据集提供了框架,以便进行准确的偏见分析和有效的缓解。
Counterfactuals是一个R包,提供了模块化和统一的R6接口来解释Counterfactual解释方法,并提出了一些可选的方法学扩展。它还将这些方法应用于不同的情境,并对解释质量和运行效率进行了评估。
完成下面两步后,将自动完成登录并继续当前操作。