对公共数据进行私密分布式学习:基于样本压缩的视角

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本文研究了具有公共数据访问的私人分布学习问题,通过使用公共和私有样本来输出对分布 p 的估计,并满足纯差分隐私的隐私约束。结果显示公共-私有可学习性与样本压缩方案和列表学习的存在有关,并恢复了以前关于高斯分布和高斯混合物的结果,包括样本复杂性上界、自适应和分布转移抵抗学习的结果,以及广义公共-私有学习的闭合特性。最后,结果显示对于高斯分布在R^d中,至少需要d个公共样本进行私人可学习性,接近已知的d+1个公共样本的上界。

🎯

关键要点

  • 研究了具有公共数据访问的私人分布学习问题。
  • 使用公共和私有样本输出对分布 p 的估计,满足纯差分隐私的隐私约束。
  • 公共-私有可学习性与样本压缩方案和列表学习的存在有关。
  • 恢复了关于高斯分布和高斯混合物的结果,包括样本复杂性上界。
  • 涉及自适应和分布转移抵抗学习的结果。
  • 广义公共-私有学习的闭合特性得到了确认。
  • 对于高斯分布在R^d中,至少需要d个公共样本进行私人可学习性,接近已知的d+1个公共样本的上界。
➡️

继续阅读