一次合作数据精炼
原文中文,约300字,阅读约需1分钟。发表于: 。大型机器学习训练数据集可以被提炼为包含信息的少量合成数据样本,合成集支持高效的模型学习并降低数据共享的通信成本。为了克服数据分布的异质性对结果集质量的影响,我们引入了一种协作数据提炼技术 CollabDM,它捕捉数据的全局分布并只需要客户端和服务器之间的一轮通信。我们的方法在分布式学习环境中对偏斜数据优于现有的一次性学习方法,并展示了将其应用于 5G 网络攻击检测时的有希望的实际效益。
大型机器学习训练数据集可以提炼为少量合成数据样本,降低数据共享通信成本。引入协作数据提炼技术CollabDM,对偏斜数据优于一次性学习方法,并在5G网络攻击检测中展示实际效益。