💡
原文英文,约200词,阅读约需1分钟。
📝
内容提要
我们研究了重尾梯度下的差分隐私随机凸优化问题,提出了一种新的约简方法,首次在重尾环境中实现最优速率,满足(ε,δ)近似差分隐私。
🎯
关键要点
- 研究了重尾梯度下的差分隐私随机凸优化问题。
- 假设样本函数的Lipschitz常数具有k阶矩界限,而非均匀界限。
- 提出了一种新的约简方法,首次在重尾环境中实现最优速率。
- 在(ε,δ)近似差分隐私下,达到了误差G2⋅1/n + Gk⋅(d/nε)^(1-1/k)。
- 结果中包含一个轻微的多对数因子polylog( log n / δ)。
- G2和Gk分别是样本Lipschitz常数的2阶和k阶矩界限。
➡️