通过高阶 HSIC 以递增的信息学习非参数 DAGs
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文提出了一种基于最优调整算法的学习贝叶斯网络的方法,通过确定父节点的可识别性条件并使用 Hilbert-Schmidt 独立性准则进行优化。实验证明该算法在不同数据集上优于现有方法,特别是在 Sigmoid 混合模型中,算法的结构干预距离(SID)比 CAM 算法小 329.7,表明该算法对图的估计缺少的边更少。
🎯
关键要点
- 提出了一种基于最优调整算法的学习贝叶斯网络的方法。
- 通过确定父节点的可识别性条件进行优化。
- 使用 Hilbert-Schmidt 独立性准则进行优化问题。
- 证明了高阶 HSIC 的增量属性。
- 实验证明该算法在不同合成数据集和实际数据集上优于现有方法。
- 在 Sigmoid 混合模型中,算法的结构干预距离(SID)比 CAM 算法小 329.7。
- 表明该算法对图的估计缺少的边更少。
➡️