通过 $h$-Lifted Kullback--Leibler Divergence 在紧致域上进行混合密度估计的风险界限
📝
内容提要
基于样本数据,我们考虑使用某个组件类的有限混合密度来估计概率密度函数的问题,并引入 H - 提升 Kullback-Leibler(KL)散度作为标准 KL 散度的一种泛化和进行风险最小化的准则。在紧支持假设下,我们证明了使用 H - 提升 KL 散度时估计误差的期望具有 O (1/√n) 的上界,这扩展了 Rakhlin 等人(2005)和 Li 和...
➡️