差分隐私下的零冗余分布式学习

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

使用预训练的语言模型、非标准化超参数和DP优化技术,在中等规模语料库上获得优于DP-trained模型的NLP模型。提出了内存节省技术来解决DP-SGD计算难题,成本与非隐私训练相当。

🎯

关键要点

  • 使用预训练的语言模型和非标准化超参数结合DP优化技术,提升NLP模型性能。
  • 在中等规模语料库上,模型表现优于强基线和同一隐私预算下的DP-trained模型。
  • 提出内存节省技术,解决大型Transformers上运行DP-SGD的计算难题。
  • 该技术允许在DP-SGD中运行clip,而无需实例化每个样本的梯度,成本与非隐私训练相当。
  • 运行时间开销适度。
➡️

继续阅读