本研究探讨了代理在决策过程中如何战略性回应决策者模型。我们提出了一种新方法,利用局部解释来最大化决策者效用,同时保障代理福利,并通过实证结果验证了其有效性和安全性。
本研究提出了xai_evals框架,旨在评估机器学习模型后置局部解释方法的可靠性,以提高AI系统的可解释性和信任度。
本文介绍了一种基于绑架式解释的机器学习方法,用于计算神经网络模型的局部解释。该方法通过优化词汇子集和保持预测不变性来提高解释框架的效果,并通过配置不同的扰动集来检测预测结果的偏见。作者在三个情感分析任务上评估了该方法的有效性。
完成下面两步后,将自动完成登录并继续当前操作。