标签

 联邦学习 

相关的文章:

本列表汇集了关于联邦学习的前沿研究,涵盖隐私保护、异构设备的协作机制及公平性等关键主题,展示了该领域的最新进展与挑战。

可扩展且安全的边缘 AI 联邦学习架构

现代应用对实时数据处理和隐私保护的需求日益增长,边缘 AI (Edge AI) 成为人们关注的焦点。边缘 AI 是指将 AI 模型直接部署在边缘设备上,例如智能手机、物联网传感器、...

边缘AI通过在设备上直接部署AI模型,实现实时数据处理和隐私保护。联邦学习作为去中心化的机器学习方法,允许设备本地训练模型,确保数据安全。尽管面临可扩展性和安全性挑战,联邦学习利用差分隐私等技术降低数据泄露风险,适用于医疗、自动驾驶和智能制造等领域,推动边缘AI的发展。

可扩展且安全的边缘 AI 联邦学习架构
原文中文,约1700字,阅读约需4分钟。发表于:
阅读原文

FedGraM:通过嵌入格拉姆矩阵抵御联邦学习中的非针对性攻击

本研究解决了联邦学习中易受到非针对性攻击导致全球模型性能下降的问题。提出了一种新的防御方法FedGraM,利用嵌入的格拉姆矩阵来检测和移除攻击,显著提升了防御效果。实验结果表明,FedGraM在有限数据样本下表现优异,超越了现有的防御方法。

本研究提出了一种新防御方法FedGraM,通过嵌入的格拉姆矩阵检测和移除非针对性攻击,显著提升了联邦学习模型的性能,实验结果优于现有方法。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文

低资源环境下的联邦学习:非洲胸部影像研究 - 挑战与经验教训

本研究探讨了在非洲低资源环境中利用联邦学习(FL)进行肺结核(TB)诊断的应用,以胸部X光为基础。研究表明,尽管联邦学习在隐私保护和数据稀缺等方面具有潜在优势,但在实施过程中面临基础设施差、网络不稳定和数字素养不足等挑战,需要改善基础设施和教育,以促进其在欠发达地区的推广。

本研究探讨了在非洲低资源环境中应用联邦学习进行肺结核诊断的可行性。尽管联邦学习在保护隐私和应对数据稀缺方面具有优势,但其实施面临基础设施不足、网络不稳定和数字素养低等挑战,亟需改善相关条件。

原文中文,约300字,阅读约需1分钟。发表于:
阅读原文

跨云数据隐私保护:通过整合联邦学习和大型语言模型优化人工智能系统的协作机制

本研究解决了云计算时代共享敏感数据时数据隐私保护的挑战,特别是在不同云环境之间的协作优化问题。通过结合联邦学习和大型语言模型,提出了一种新颖的跨云架构,确保模型更新的隐私和完整性,同时显著提高了模型训练效率和决策能力。实验结果表明,该方法在准确性、收敛速度和数据隐私保护方面显著优于传统联邦学习模型。

本研究提出了一种新型跨云架构,结合联邦学习与大型语言模型,有效解决云计算时代共享敏感数据的隐私保护问题。实验结果表明,该方法在准确性、收敛速度和数据隐私保护方面优于传统模型。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文

异质性意识客户端采样:一致性联邦学习的统一解决方案

本文解决了联邦学习中客户端通信和计算能力异质性导致的优化动态失调及目标不一致性问题。研究揭示了异质性通信和计算驱动联邦学习不一致性的本质机制,并提出了联邦异质性意识客户端采样(FedACS)方法,理论证明该方法在动态异质环境中仍能以$O(1/\sqrt{R})$的速率收敛到正确的最优解,实验结果表明其在多个数据集上的性能超过最先进技术4.3%-36%。

发表于:
阅读原文

防御边缘:基于代表性注意力的机制以缓解联邦学习中的后门攻击

本研究旨在解决联邦学习中后门攻击检测的困难,特别针对边缘设备的非独立同分布数据的挑战。提出了一种名为FeRA的防御机制,通过跨客户端的内部特征表示注意力来区分良性和恶意客户端,显著降低了后门攻击成功率,同时在主任务上保持较高的准确性。这一方法无模型限制,对攻击不敏感,且不需要标记数据,非常适用于异构和资源有限的边缘设备。

本研究提出了一种FeRA防御机制,旨在解决联邦学习中的后门攻击检测问题。该方法通过特征表示注意力有效区分良性与恶意客户端,降低攻击成功率,同时保持高准确性,适合边缘设备应用。

原文中文,约300字,阅读约需1分钟。发表于:
阅读原文

针对边缘设备领域异质性的稳健联邦学习

本研究针对联邦学习中由于领域异质性导致的全局模型收敛问题,提出了一种通过原型增强的框架以提升模型的泛化能力。通过引入联邦增强原型对比学习(FedAPC),该方法增强了特征的多样性和模型的稳健性,实验结果表明该框架在性能上显著优于现有的先进技术。

本研究提出了一种原型增强框架,旨在解决联邦学习中因领域异质性导致的全局模型收敛问题。通过引入联邦增强原型对比学习(FedAPC),显著提升了模型的泛化能力和稳健性,实验结果表明其性能优于现有技术。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文

穿越隐私:一种基于超平面的联邦学习数据重构攻击

本文针对联邦学习中的数据隐私保护缺陷,提出了一种新颖的数据重构攻击方法,解决了现有攻击依赖客户端数据分布假设的局限性。研究结果表明,该方法能够在分类任务中完美恢复任意大小的数据批次,显著优于现有技术,具有重要的安全性影响。

本文提出了一种新颖的数据重构攻击方法,解决了联邦学习中的数据隐私保护问题。研究表明,该方法在分类任务中能够完美恢复任意大小的数据批次,显著优于现有技术,具有重要的安全性影响。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文

应对人口差异和数据不平衡的公平联邦学习

本研究解决了在医疗等高风险领域应用人工智能时,由于数据不平衡和人口统计偏倚导致的公平性问题。提出的FedIDA框架结合了公平性感知的正则化与组条件超采样,能够在维护联邦学习算法收敛性的同时,改进多个敏感属性和异质数据分布下的公平性。实证结果表明,FedIDA在保持竞争性预测性能的同时,显著改善了模型的公平性,展示了其在医疗领域公平与隐私保护建模中的有效性。

本研究提出了FedIDA框架,以解决医疗领域人工智能中的公平性问题。该框架结合公平性感知正则化与组条件超采样,提升了多敏感属性下的公平性,同时保持了联邦学习的收敛性。实证结果表明,FedIDA在竞争性预测性能的同时显著提高了模型的公平性。

原文中文,约300字,阅读约需1分钟。发表于:
阅读原文

基于聚类方法的能源高效联邦学习在人工智能物联网中的应用

本研究针对联邦学习在人工智能物联网场景中的能耗问题,提出了基于聚类的方法,关注预处理、通信和本地学习过程中的能量消耗。研究表明,这些方法通过将设备按标签分布聚类,能够有效提高模型训练的收敛速度,同时降低能量消耗。

本研究提出了一种基于聚类的联邦学习方法,旨在解决人工智能物联网中的能耗问题。通过设备标签聚类,显著提高模型训练速度并降低能耗。

原文中文,约200字,阅读约需1分钟。发表于:
阅读原文