朝向可组合解释性的 XAI
原文中文,约600字,阅读约需2分钟。发表于: 。人工智能(AI)目前主要基于黑箱机器学习模型,缺乏可解释性,解释性人工智能(XAI)的研究旨在解决这一主要问题;本论文提出一种基于范畴论的定义 AI 模型及其可解释性的方法,通过使用组合模型的概念,以形式化的字符串图表达抽象结构和具体实现,包括确定性、概率性和量子模型,并比较了广泛的 AI 模型作为组合模型,包括线性模型、基于规则的模型、(循环)神经网络、变换器、VAEs 以及因果图和...
本文提出了一种基于范畴论的方法来定义和解释人工智能模型,通过使用组合模型的概念以形式化的字符串图表达抽象结构和具体实现。研究发现标准的“本质可解释性”模型在图表中展示得最清晰,引出了更一般的组合可解释模型的概念。演示了组合可解释模型的可解释性益处,包括计算其他感兴趣量、推理和解释行为。最后讨论了该方法的未来发展方向。