扩散模型的差分隐私微调

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文提出了一种微调策略,通过减少可训练参数的数量来增强隐私-效用平衡,在DP合成方面取得了最先进的性能。

🎯

关键要点

  • 提出了一种微调策略,旨在优化私有扩散模型的参数效率。
  • 通过减少可训练参数的数量来增强隐私与效用的平衡。
  • 在DP合成方面取得了最先进的性能。
  • 在广泛研究的数据集上明显超过了先前的基准。
  • 例如,在CelebA-64数据集上,使用仅0.47M个可训练参数,在小隐私预算下实现了超过35%的改进。
➡️

继续阅读