该研究提出了名为FATS的新联邦学习框架,解决个别客户或数据对全局模型的影响。该框架在通信效率和去学习可证明性方面具有优势,并在实证验证中展示了准确性、通信成本、计算成本和去学习效果的优越性。
本文提出了一种解决异构设备数据、计算和通信延迟以及非独立同分布数据的联邦学习框架,通过数学分析研究了其收敛性、计算和通信延迟,并最终通过优化问题得到了剪枝比例和无线资源分配的闭式解。实验结果表明,该框架能够显著减少约50%的计算和通信延迟。
本文介绍了一种联邦学习框架,通过使用差分隐私机制,从不同站点本地持有的分布式健康数据中学习全局模型,提供了两个级别的隐私保护。该框架在两个医疗应用程序上的评估证明了其在提供更高级别的隐私保护和维护全局模型效用方面的可行性和有效性。
该研究介绍了FeCA算法,用于解决联邦学习框架中的无监督聚类问题。该算法通过自适应精炼局部解并聚合以恢复全局解,解决了非凸优化目标和数据异质性的挑战。同时,将FeCA扩展为表示学习,并与DeepCluster结合在联邦学习框架中进行无监督特征学习。
FedSiKD是一种基于联邦学习框架的知识蒸馏技术,解决了非独立同分布数据和设备约束等问题。对HAR和MNIST数据集,FedSiKD相较于现有算法具有更高的准确性,并在前五轮迭代中分别提升了17%和20%的准确率。代码已在GitHub上公开托管。
本文介绍了FedGraph联邦学习框架,使用智能图采样算法和跨客户卷积操作解决图学习挑战,实现数据隐私保护和更好性能。实验结果显示FedGraph优于现有工作,收敛速度更快,准确性更高。
该研究提出了名为FATS的新联邦学习框架,解决个别客户或数据对全局模型的影响。该框架通过保持统计上的一致性和总变差稳定性,实现快速联邦去学习。实证验证显示该框架在准确性、通信成本、计算成本和去学习效果方面具有优势。
本研究提出了一种名为RepTreeFL的联邦学习框架,通过复制客户端模型并扰动本地数据分布,聚合多个具有不同数据分布的模型来实现学习。实验结果表明,RepTreeFL在有限数据和客户端的情况下,在图生成和图像分类任务中表现出良好的效果和优势。
该研究提出了名为FATS的新联邦学习框架,解决个别客户或数据对全局模型的影响问题。该框架通过保证无学习之后的模型与未删除数据时训练的模型在统计上无差异,并具有总变差稳定性的特性,实现了快速联邦去学习。实证验证表明,该框架在准确性、通信成本、计算成本和去学习效果方面具有优势。
本研究提出了一种新的联邦学习框架,使用去中心化知识蒸馏来训练全球模型,以更好地适应神经网络映射平均值。实验证明,该框架在异构数据集上表现出更高的效率和更好的训练结果。
本论文研究了梯度反转攻击在联邦学习框架下的应用,提出了一种基于分析的算法来恢复真实增强标签和输入特征,并证明了该算法的准确性和对图像重建的好处。强调了在梯度反转攻击中对软标签的重视。
研究人员提出了一种名为RepTreeFL的新型联邦学习框架,通过复制参与客户端的模型架构并扰动其本地数据分布的方式,在有限的数据和少数客户端的情况下,通过聚合多个具有不同数据分布的模型来实现学习。实验结果表明,RepTreeFL在图生成和图像分类任务中表现出良好的效果和优势。
Fed-CO2是一个用于处理标签分布倾斜和特征倾斜的联邦学习框架,通过在线和离线模型合作机制增强模型合作,提供内部和客户间知识传递机制来增强领域泛化能力。Fed-CO2优于现有个性化联邦学习算法。
完成下面两步后,将自动完成登录并继续当前操作。