小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
高效的隐私损失核算:针对子采样和随机分配

本文探讨了一种在k个步骤中随机均匀使用用户数据的采样方案,该方案在差分隐私优化和高维私有聚合中表现出优于标准泊松采样的效用。研究表明,随机分配的隐私损失分布可以高效计算,并且在训练DP-SGD时,其隐私效用权衡至少与泊松子采样相当。此外,本文开发了新的隐私损失核算工具,扩展了对子采样的准确核算。

高效的隐私损失核算:针对子采样和随机分配

Apple Machine Learning Research
Apple Machine Learning Research · 2026-04-13T00:00:00Z

本文提出了一种名为FFT增强卡尔曼滤波器(FFTKF)的差分隐私优化方法,旨在解决DP-SGD中噪声导致模型效用下降的问题。FFTKF结合频域噪声塑形与卡尔曼滤波,提升了梯度质量,保持了差分隐私保证,显著提高了测试准确性。

Spectral and Temporal Differential Privacy Optimization Denoising

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-07T00:00:00Z

本研究探讨了DP-SGD训练中噪声对梯度方向的负面影响,提出了几何扰动策略GeoDP,显著提高模型效率,减少方向噪声,同时确保隐私保护。实验结果表明,该方法在多个数据集和模型上均有效。

技术报告:分析和优化 DP-SGD 扰动的完整版本

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-08T00:00:00Z
CCS 2024 | 如何严格衡量机器学习算法的隐私泄露? ETH有了新发现

机器之心AIxiv专栏报道了张杰的研究,探讨机器学习算法的隐私保护能力。研究指出,许多经验防御方法在隐私泄露评估中存在误区,强调应关注个体隐私而非群体平均。研究提出使用金丝雀样本进行高效评估,结果表明DP-SGD仍是强有力的防御方法,难以被超越。

CCS 2024 | 如何严格衡量机器学习算法的隐私泄露? ETH有了新发现

机器之心
机器之心 · 2024-11-12T04:53:31Z

本研究探讨了DP-SGD超参数对隐私保护机器学习算法性能的影响,揭示了剪切阈值与学习率之间的关系,并量化了其重要性,为优化隐私与效用的权衡提供了新思路。

R+R: Understanding the Impact of Hyperparameters in DP-SGD

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-04T00:00:00Z

本文介绍了一种新的Rényi差分隐私(RDP)界限,适用于DP-SGD变体。该界限适用于不假设凸性、平滑性或Lipschitz连续性的损失函数,并且假设DP-SGD的步长相对较小且损失函数是弱凸的。界限在目标函数的弱凸参数趋近于零时趋于以前建立的凸界限。对于非Lipschitz平滑的损失函数,提供了一种随着DP-SGD迭代次数的扩展良好的界限。

损失加大:对于非凸损失的隐藏状态 DP-SGD 没有隐私放大

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-09T00:00:00Z

通过实证研究,调查了DP-SGD和PATE在防止后门攻击方面的有效性,并首次检验了PATE在文献中的作用。实验揭示了超参数和训练数据集中后门数量对DP算法成功的影响。提出了Label-DP作为DP-SGD和PATE的更快、更准确的替代方法。准确的超参数调整可以使Label-DP在防御后门攻击并保持模型准确性方面更有效。

PATE-GAN 复制的艰难追求:基准测试、审计、调试

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-20T00:00:00Z

研究发现,批量大小对DP-SGD中的总梯度方差有影响。子抽样引起的方差随批量大小增加而减小,大批量可以减小有效总梯度方差。实验证实了渐近区域的相关性,并发现总梯度方差随大批量增加而进一步减小。找到了大批量同样可以减小DP-SGD迭代的有效随机噪声方差的条件。

子采样不是魔法:大批量训练对差分隐私随机优化的作用

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-06T00:00:00Z

通过使用预训练的语言模型、非标准化超参数和fine-tuning目标结合DP优化技术,可以在中等规模的语料库上获得胜过强基线和同一隐私预算下的DP-trained模型的NLP模型。同时,提出了一种内存节省技术来解决在大型Transformers上运行DP-SGD的计算难题,该技术可以使得clip在DP-SGD中运行而无需对模型中的任何线性层实例化每个样本的梯度,成本与非隐私的训练相当,并且有适度的运行时间开销。

大型语言模型的私人微调与零阶优化

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-01-09T00:00:00Z

本文研究了采用差分隐私保护方法进行深度学习训练,在图像分类任务中取得了新的最高精度。通过调优超参数和利用技巧提高信号传播和收敛速度。证明了过参数化模型的DP-SGD方法可以缩小私有和非私有图像分类的精度差距。

深度学习模型权重中是否存在差分隐私推断?朝着更安全的深度学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-11-20T00:00:00Z

ExpM+NF是一种用于在私有数据上训练具有预定差分隐私保证的机器学习模型的方法。实验结果显示,ExpM+NF在多个分类任务上的准确率超过93%,比DPSGD具有更高的准确性和更好的隐私保护能力。该方法对差分私有机器学习的发展具有重要意义,并提出了未来的研究方向。

ExpM+NF:超越 DPSGD 的差分隐私机器学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-11-15T00:00:00Z

该论文研究了单输出节点全连接神经网络的差分隐私随机优化问题,提出了多个算法。研究表明,不同数据维度下可实现超出总体风险的可行性。此外,还研究了具有ReLU激活函数的两层神经网络以及DP-SGD在全连接多层神经网络中的理论保证和参数的作用。

多层神经网络的差分隐私非凸学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-10-12T00:00:00Z

本研究探讨了样本梯度范数与DP-SGD中梯度估计偏差的关系,并提出了Bias-Aware Minimization(BAM)方法,用于降低私有梯度估计器的偏差。实证证据支持了在CIFAR-10、CIFAR-100和ImageNet-32数据集上的隐私-效用权衡。

偏见感知最小化:理解和降低私有 SGD 中的估计器偏差

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-08-23T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码