对公共数据进行私密分布式学习:基于样本压缩的视角
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文研究了具有公共数据访问的私人分布学习问题,通过使用公共和私有样本来输出对分布 p 的估计,并满足纯差分隐私的隐私约束。结果显示公共-私有可学习性与样本压缩方案和列表学习的存在有关,并恢复了以前关于高斯分布和高斯混合物的结果,包括样本复杂性上界、自适应和分布转移抵抗学习的结果,以及广义公共-私有学习的闭合特性。最后,结果显示对于高斯分布在R^d中,至少需要d个公共样本进行私人可学习性,接近已知的d+1个公共样本的上界。
🎯
关键要点
- 研究了具有公共数据访问的私人分布学习问题。
- 使用公共和私有样本输出对分布 p 的估计,满足纯差分隐私的隐私约束。
- 公共-私有可学习性与样本压缩方案和列表学习的存在有关。
- 恢复了关于高斯分布和高斯混合物的结果,包括样本复杂性上界。
- 涉及自适应和分布转移抵抗学习的结果。
- 广义公共-私有学习的闭合特性得到了确认。
- 对于高斯分布在R^d中,至少需要d个公共样本进行私人可学习性,接近已知的d+1个公共样本的上界。
➡️