本研究提出了DMin框架,解决了扩散模型中影响估计的计算限制。通过梯度压缩和检索技术,DMin显著降低了存储需求,并快速识别影响性训练样本,实验证明其有效性和高效性。
本研究提出了一种预测梯度压缩方法,通过利用局部梯度的时间相关性,降低分布式学习中的通信成本,并确保收敛性和性能提升。
本文提出了一个框架来评估客户隐私泄漏攻击,发现攻击者可以通过分析本地训练参数重构私有数据。研究分析了联邦学习中超参数和攻击算法对攻击效果的影响,并评估了不同梯度压缩比下的攻击有效性,最后提供了一些缓解策略来应对隐私泄漏威胁。
本研究提出了一种创新的方法来提高大型语言模型联邦学习中的通信效率。通过在客户端增加编码器和服务器端增加解码器来压缩和重构梯度,该方法降低了通信成本并提高了性能。
完成下面两步后,将自动完成登录并继续当前操作。