本研究提出了一种新型目标驱动查询回答方法,解决了传统全局模型计算效率低的问题。该方法通过输入依赖转换,显著提高了查询回答速度,优于完整模型计算。
本文介绍了一种联邦学习框架,通过使用差分隐私机制,从不同站点本地持有的分布式健康数据中学习全局模型,提供了两个级别的隐私保护。该框架在两个医疗应用程序上的评估证明了其在提供更高级别的隐私保护和维护全局模型效用方面的可行性和有效性。
本文介绍了联邦边缘学习框架(FEEL),通过在边缘设备上进行本地模型训练并与全局模型在服务器上进行协调,实现了边缘设备上的学习算法。同时,提出了节能策略和移动策略以提高学习性能。实验结果表明,该策略在节能方面有显著提升。
本文介绍了一种新颖的个性化联邦学习方法,即类别级联联邦平均(cwFedAVG),通过在服务器端按类别执行联邦平均,创建多个全局模型,并使用本地类别分布加权整合这些模型。实验结果显示,cwFedAVG 在概念上简单而计算高效,可以与现有方法相媲美甚至更好。
本研究提出了FedLabel方法,通过全局模型或本地模型对未标记数据进行伪标记,利用全局模型和本地模型的知识,通过全局-本地一致性正则化提高模型泛化能力。该方法不需要额外专家、通信参数,也不需要服务器标记数据或完全标记的客户端数据,并在跨设备和跨网络隔离设置中表现优于其他半监督联邦学习方法和完全监督方法。
本文介绍了联邦边缘学习框架(FEEL),通过在边缘设备上进行本地模型训练并与全局模型在服务器上进行协调,实现了边缘设备上的学习算法。同时,提出了节能策略和移动策略,以提高学习性能和节能效果。实验结果表明,该策略在节能方面有显著提升。
该研究提出了名为FATS的新联邦学习框架,解决个别客户或数据对全局模型的影响。该框架通过保持统计上的一致性和总变差稳定性,实现快速联邦去学习。实证验证显示该框架在准确性、通信成本、计算成本和去学习效果方面具有优势。
CreamFL是一个支持多模态联邦学习的框架,提高了全局模型的复杂度和数据容量。它使用公共数据集进行知识交流,并通过全局本地交叉模态集成策略来聚合客户端表示。在图像-文本检索和视觉问答任务上的测试结果表明,CreamFL比目前流行的联邦学习方法更好。
该研究提出了名为FATS的新联邦学习框架,解决个别客户或数据对全局模型的影响问题。该框架通过保证无学习之后的模型与未删除数据时训练的模型在统计上无差异,并具有总变差稳定性的特性,实现了快速联邦去学习。实证验证表明,该框架在准确性、通信成本、计算成本和去学习效果方面具有优势。
FLR是一种创新策略,通过生成新的伪标签并将本地和全局模型的预测相结合,有效地应对联邦学习中的标签噪声问题,提高全局模型的准确性,并防止记忆嘈杂的标签,从而改善在标签准确性有误的FL环境中的泛化能力。
本文研究了在通信成本和隐私保护的限制下联邦表示学习的可行性。通过自监督对比本地训练的鲁棒性,提出了一种新的Federated representation Learning框架,使用相似度蒸馏对全局模型进行训练。实验证明该方法在多种数据集上能够以可比较的结果实现多种设置下的性能。
提出了一种新型联邦学习框架FedLGT,用于多标签分类。通过在不同客户端之间传递知识,学习出稳健的全局模型。实验证明,在多标签联邦学习场景下超过了标准联邦学习技术,并获得了令人满意的性能。
本文介绍了个性化的联邦学习系统,解决了FL的异质性问题。CFL通过全局模型为每个客户定制个性化模型,提高了模型准确性、效率和公平性。
本文提出了一种新的联邦表示学习框架,使用相似度蒸馏对全局模型进行训练,以实现在通信成本和隐私保护的限制下的可行性。实验证明该方法在多种数据集上能够以可比较的结果实现多种设置下的性能。
该文介绍了一种抵御后门攻击的方法,通过生成具有新学习知识的图像来过滤触发器图像,以确保更新的全局模型是良性的。实验结果表明,该方法可以抵御几乎所有现有类型的后门攻击,并在IID和non-IID场景下优于所有七种最先进的防御方法。
本文介绍了一种联邦学习框架,可从不同站点的分布式健康数据中学习全局模型,提供两个级别的隐私保护,使用差分隐私机制防止隐私攻击,并在两个医疗应用程序上进行了评估。
本文介绍了个性化的联邦学习(CFL)系统,解决了FL在多个维度上的异质性问题。CFL通过全局模型为每个客户定制个性化模型,提高了模型准确性、效率和公平性。
通过学习后门攻击的两个特征,即触发器比正常知识学习得更快,触发器模式对图像分类的影响比正常类模式更大。该方法通过生成具有新学习知识的图像,并评估这些生成的图像的效果来过滤触发器图像,以确保更新的全局模型是良性的。实验结果表明,该方法可以抵御几乎所有现有类型的后门攻击,并在IID和non-IID场景下优于所有七种最先进的防御方法,尤其是在80%的恶意客户端存在时依旧能够成功抵御后门攻击。
完成下面两步后,将自动完成登录并继续当前操作。