可解释模型的概率式数据集重建
原文中文,约400字,阅读约需1分钟。发表于: 。解释性是可信任机器学习的一个关键要求,因为通过学习和发布一些内在可解释的模型可以泄露有关底层训练数据的信息,而这可能直接与隐私冲突。本文提出了一个新的框架,用于处理其他形式的可解释模型和更普遍的知识,并证明在对可解释模型结构做出现实的假设的情况下,可以有效地计算重建的不确定性。最后,我们通过比较精确学习算法和启发式学习算法关联的理论信息泄漏,说明了我们方法的适用性,使用决策树和规则列表。我们...
本文提出了一个新的框架,用于处理可解释模型和知识,并证明在对可解释模型结构做出现实的假设的情况下,可以有效地计算重建的不确定性。通过比较精确学习算法和启发式学习算法关联的理论信息泄漏,说明了我们方法的适用性。结果表明,最优解释性模型通常更紧凑,泄露的关于训练数据的信息更少。