通过高阶 HSIC 以递增的信息学习非参数 DAGs

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文提出了一种基于最优调整算法的学习贝叶斯网络的方法,通过确定父节点的可识别性条件并使用 Hilbert-Schmidt 独立性准则进行优化。实验证明该算法在不同数据集上优于现有方法,特别是在 Sigmoid 混合模型中,算法的结构干预距离(SID)比 CAM 算法小 329.7,表明该算法对图的估计缺少的边更少。

🎯

关键要点

  • 提出了一种基于最优调整算法的学习贝叶斯网络的方法。
  • 通过确定父节点的可识别性条件进行优化。
  • 使用 Hilbert-Schmidt 独立性准则进行优化问题。
  • 证明了高阶 HSIC 的增量属性。
  • 实验证明该算法在不同合成数据集和实际数据集上优于现有方法。
  • 在 Sigmoid 混合模型中,算法的结构干预距离(SID)比 CAM 算法小 329.7。
  • 表明该算法对图的估计缺少的边更少。
➡️

继续阅读