南洋理工大学、新加坡国立大学与华为联合推出FDABench,这是首个针对数据智能体的基准测试,涵盖2007个任务,支持多种数据源和工作流模式,评估智能体在异构数据分析中的表现,帮助用户选择最合适的系统。
本文提出了TRIP框架,旨在解决联邦学习中的专家分配和通信成本问题。实验结果表明,TRIP在提高通信效率的同时,显著改善了个性化样本的处理,展示了其在异构数据环境中的应用潜力。
研究表明,原生多模态模型(NMM)在早融合和后融合架构中性能相当,早融合在低参数下表现更佳且训练效率高。结合混合专家(MoE)可显著提升性能。随着计算预算增加,两者性能趋近,稀疏性有利于早融合。建议在统一架构内进行多模态特化,以更好地处理异构数据。
本研究提出了一种新型联合双重学习方法,克服了现有联合学习在异构数据和通信延迟下的局限性。实验结果表明,该方法在数据不一致的情况下仍能有效更新客户端模型,显著优于现有技术,展示了去中心化数据的潜力。
本研究提出了一种多输入自编码器模型MIAEAD,用于异构数据的异常检测。该模型通过重构误差为特征子集分配异常分数,并利用变分自编码器学习正常数据分布。实验结果表明,MIAEAD在多个数据集上的表现优于传统方法,AUC分数提高最多6%。
本研究提出了RecKG,一个标准化的推荐系统知识图谱,旨在解决异构推荐系统中知识图谱整合不足的问题。RecKG通过确保不同数据集中的实体一致性,促进了异构数据源的无缝集成,并揭示了额外的语义信息。实证研究表明,RecKG在互操作性方面优于其他方法。
本研究探讨大型语言模型(LLMs)在关系数据库预测任务中的应用,证明其在复杂关系和异构数据上表现优异,为机器学习设立新基准,激励后续研究。
麻省理工学院研究人员开发了一种新技术,通过统一多种异构数据来训练通用机器人。这种方法提高了机器人在多任务上的表现,减少了训练时间和成本,研究表明其在模拟和现实任务中的表现提升超过20%。未来希望进一步增强数据处理能力,以实现更广泛的应用。
本研究提出了跨孤岛稳健集群联合学习(CS-RCFL)算法,解决异构数据分布问题。通过Wasserstein距离构建模糊集,捕捉数据分布变化,确保模型在最坏情况下的性能,并保护隐私,适用于医疗机构。
本文探讨了自注意力机制的神经网络模型(如Transformer)在联邦学习中的应用,特别是在处理异构数据时的性能改进。研究提出了多种新方法,如Federated Knowledge Anchor (FedKA),以解决模型遗忘问题并提高准确性。实验结果表明,这些方法在医学数据集上表现优越,有效应对数据异质性带来的挑战。
本文介绍了一种改进的联邦学习方法,通过分层聚类将客户端分组进行独立训练,以提升模型性能和收敛速度。同时,提出了混合联邦与集中学习框架,优化了通信和计算效率,并验证了其在异构数据环境下的有效性。此外,研究探讨了分层独立子模型训练方法,显著降低了通信成本并提高了准确率。
本文提出了多种联邦学习算法,旨在解决异构用户设备的数据、资源分配和通信延迟问题,强调其在未来6G网络中的重要性。通过优化调度和资源分配,显著提高了模型性能和通信效率。
本文提出了一个新的联邦学习框架和算法,利用跨客户的分布式计算能力,在线性设置中高效地降低问题维度。实验证明该方法获得与地面实况表示的线性收敛,并在异构数据的联邦环境中相对于个性化联邦学习方法有经验改进。
这篇文章介绍了一种名为MeritFed的个性化联邦学习算法,适用于自然语言任务中的异构数据。作者使用多语言机器翻译共享任务的数据集和萨米语进行评估,结果显示目标数据集大小影响辅助语言之间的权重分布,无关语言不会干扰训练。该方法简单易用,只需几行代码,并提供了实验重现的脚本。
本文提出了一个新的联邦学习框架和算法,利用跨客户的分布式计算能力进行局部更新,以降低问题维度。实验证明该方法在线性设置中获得线性收敛,并在异构数据的联邦环境中相对于个性化联邦学习方法有经验改进。
本文提出了一种新型的隐私保护联邦学习方法,通过分类器重新训练实现异构和长尾数据的隐私保护联邦特征。实验结果表明,该方法是一种有效的解决方案,可在异构和长尾数据下获得有希望的联合学习模型。
联邦学习是一种有前途的研究范式,可以在各方之间进行机器学习模型的协作训练,而无需进行敏感信息交换。本研究回顾了应用于视觉识别的联邦学习,强调了架构设计选择在实现最佳性能方面的重要作用。实验证明了架构选择可以提高联邦学习系统的性能,尤其是在处理异构数据时。同时,研究了不同架构系列的视觉识别模型在联邦学习数据集上的性能,并分析了规范化层对联邦学习性能的影响。结果强调了架构设计在计算机视觉任务中的重要性,缩小了联邦学习和集中学习之间的性能差距。
联邦学习是一种机器学习方法,可以在多个分散边缘设备之间进行协作模型训练,无需交换数据样本。本报告探讨了非独立非同分布的数据与异构数据带来的问题,并探索了解决这些挑战的算法。
本研究提出了一种基于异构数据的去中心化学习新方法,通过无数据知识蒸馏提高性能,在不同数据集、模型架构和网络拓扑中实现了卓越的性能提升。
本文提出了一个新的联邦学习框架和算法,利用跨客户的分布式计算能力,在线性设置中高效地降低问题维度。实验证明该方法获得了与地面实况表示的线性收敛,并获得接近最优样本复杂度。此外,该方法在异构数据的联邦环境中相对于个性化联邦学习方法有经验改进。
完成下面两步后,将自动完成登录并继续当前操作。