来自伦敦大学学院(UCL)计算机科学系的研究团队提出了一种用于白细胞形态分析的联邦学习框架,使各机构能够在不交换训练数据的情况下进行协同训练。利用来自多个临床站点的血液涂片,该联邦模型在保证完全数据隐私的同时,学习到稳健且域不变的特征表示。与集中式训练相比,联邦训练在跨站点性能和对未知机构的泛化能力上表现出色。
联邦学习(FL)与差分隐私(DP)在自动语音识别(ASR)中的应用尚待深入。本文通过逐层裁剪和梯度归一化技术,缓解了大模型在FL中面临的梯度异质性问题。实验结果表明,在强隐私保护下,FL与DP在用户规模达到数百万时是可行的,并且在不同规模下的字错误率有所改善。这为大模型的隐私保护FL算法设计提供了指导。
边缘AI通过在设备上直接部署AI模型,实现实时数据处理和隐私保护。联邦学习作为去中心化的机器学习方法,允许设备本地训练模型,确保数据安全。尽管面临可扩展性和安全性挑战,联邦学习利用差分隐私等技术降低数据泄露风险,适用于医疗、自动驾驶和智能制造等领域,推动边缘AI的发展。
本研究探讨了在非洲低资源环境中应用联邦学习进行肺结核诊断的可行性。尽管联邦学习在保护隐私和应对数据稀缺方面具有优势,但其实施面临基础设施不足、网络不稳定和数字素养低等挑战,亟需改善相关条件。
本研究提出了一种新防御方法FedGraM,通过嵌入的格拉姆矩阵检测和移除非针对性攻击,显著提升了联邦学习模型的性能,实验结果优于现有方法。
本研究提出了一种新型跨云架构,结合联邦学习与大型语言模型,有效解决云计算时代共享敏感数据的隐私保护问题。实验结果表明,该方法在准确性、收敛速度和数据隐私保护方面优于传统模型。
本文解决了联邦学习中客户端通信和计算能力异质性导致的优化动态失调及目标不一致性问题。研究揭示了异质性通信和计算驱动联邦学习不一致性的本质机制,并提出了联邦异质性意识客户端采样(FedACS)方法,理论证明该方法在动态异质环境中仍能以$O(1/\sqrt{R})$的速率收敛到正确的最优解,实验结果表明其在多个数据集上的性能超过最先进技术4.3%-36%。
本研究提出了一种FeRA防御机制,旨在解决联邦学习中的后门攻击检测问题。该方法通过特征表示注意力有效区分良性与恶意客户端,降低攻击成功率,同时保持高准确性,适合边缘设备应用。
本文提出了一种新颖的数据重构攻击方法,解决了联邦学习中的数据隐私保护问题。研究表明,该方法在分类任务中能够完美恢复任意大小的数据批次,显著优于现有技术,具有重要的安全性影响。
本研究提出了一种原型增强框架,旨在解决联邦学习中因领域异质性导致的全局模型收敛问题。通过引入联邦增强原型对比学习(FedAPC),显著提升了模型的泛化能力和稳健性,实验结果表明其性能优于现有技术。
本研究提出了FedIDA框架,以解决医疗领域人工智能中的公平性问题。该框架结合公平性感知正则化与组条件超采样,提升了多敏感属性下的公平性,同时保持了联邦学习的收敛性。实证结果表明,FedIDA在竞争性预测性能的同时显著提高了模型的公平性。
本研究提出了一种基于聚类的联邦学习方法,旨在解决人工智能物联网中的能耗问题。通过设备标签聚类,显著提高模型训练速度并降低能耗。
本研究分析了异构设备在联邦学习中的效率与隐私挑战,比较了FedAvg与FedAsync方法,发现异步方法虽然加快收敛速度,但会增加隐私损失和公平性问题。
本研究提出MMiC框架,解决多模态联邦学习中的模态缺失问题,通过替换客户端模型参数和优化客户端选择,显著提升了缺失模态数据集的性能。
本研究针对联邦学习中标签噪声带来的性能下降问题进行探讨,提出了FNBench基准测试,以全面评估在统一设置下现有方法在各种标签噪声模式下的表现。研究表明,噪声标签的存在显著影响联邦学习的性能,并通过引入表征感知正则化方法,提升了现有方法对噪声标签的鲁棒性。
本研究解决了联邦学习(FL)中对客户端攻击缺乏研究的问题,提出了一种通过操控客户端传感器观测来发起的远程Rowhammer攻击新方法。研究发现,针对高频更新的客户端进行攻击能够无后门地导致服务器内存中的位翻转,可能对FL系统的安全性造成严重威胁。
人工智能依赖数据,但隐私保护同样重要。集中式AI模型存在安全和隐私风险。联邦学习(FL)通过在本地设备上训练模型,保护用户数据隐私。FL已在医疗、金融和智能手机等领域应用,帮助开发者遵守数据法律,增强用户信任。
本研究提出了一种联邦黑寡妇优化(FedBWO)技术,以解决资源受限设备的传输能力不足问题。该方法仅传输性能得分,从而减少通信数据量,实验结果显示准确率提高了21%,通信成本显著降低。
本文提出了一种新异步联邦学习方法FRAIN,旨在解决数据异构性和更新陈旧性问题。FRAIN通过快速同步策略和球面线性插值有效整合客户更新,提升模型稳定性,尤其在恶劣环境下表现优于传统方法。
完成下面两步后,将自动完成登录并继续当前操作。