重尾下的差分隐私随机凸优化:基于简单约简的近最优性

重尾下的差分隐私随机凸优化:基于简单约简的近最优性

💡 原文英文,约200词,阅读约需1分钟。
📝

内容提要

我们研究了重尾梯度下的差分隐私随机凸优化问题,提出了一种新的约简方法,首次在重尾环境中实现最优速率,满足(ε,δ)近似差分隐私。

🎯

关键要点

  • 研究了重尾梯度下的差分隐私随机凸优化问题。
  • 假设样本函数的Lipschitz常数具有k阶矩界限,而非均匀界限。
  • 提出了一种新的约简方法,首次在重尾环境中实现最优速率。
  • 在(ε,δ)近似差分隐私下,达到了误差G2⋅1/n + Gk⋅(d/nε)^(1-1/k)。
  • 结果中包含一个轻微的多对数因子polylog( log n / δ)。
  • G2和Gk分别是样本Lipschitz常数的2阶和k阶矩界限。
➡️

继续阅读