对公共数据进行私密分布式学习:基于样本压缩的视角
原文约400字/词,阅读约需1分钟。发表于: 。研究了具有公共数据访问的私人分布学习问题,通过使用公共和私有样本来输出一个对分布 p 的估计,同时满足纯差分隐私的隐私约束。结果显示,Q 类的公共 - 私有可学习性与 Q 类的样本压缩方案以及中间概念列表学习的存在有关,并且将这种连接利用起来恢复了以前关于 Gaussians 和新的结果,包括关于高斯 $k$...
本文研究了具有公共数据访问的私人分布学习问题,通过使用公共和私有样本来输出对分布 p 的估计,并满足纯差分隐私的隐私约束。结果显示公共-私有可学习性与样本压缩方案和列表学习的存在有关,并恢复了以前关于高斯分布和高斯混合物的结果,包括样本复杂性上界、自适应和分布转移抵抗学习的结果,以及广义公共-私有学习的闭合特性。最后,结果显示对于高斯分布在R^d中,至少需要d个公共样本进行私人可学习性,接近已知的d+1个公共样本的上界。