通过随机对抗蒸馏学习差分隐私扩散模型
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
本文提出了一种微调策略,通过减少可训练参数的数量来优化私有扩散模型的参数效率,实现了隐私-效用平衡。在DP合成方面取得了最先进的性能,在广泛研究的数据集上明显超过了先前的基准。
🎯
关键要点
- 提出了一种微调策略,优化私有扩散模型的参数效率。
- 通过减少可训练参数的数量来增强隐私-效用平衡。
- 在DP合成方面取得了最先进的性能。
- 在广泛研究的数据集上明显超过了先前的基准。
- 在CelebA-64数据集上,仅有0.47M个可训练参数,实现了超过35%的改进。
➡️