基于不确定性的离散异构数据隔离中可扩展代码本的联合学习
原文中文,约300字,阅读约需1分钟。发表于: 。利用分布式数据集的联邦学习(FL)面临数据异质性的挑战。我们提出一种名为基于不确定性的可扩展码本联邦学习(UEFL)的创新而简单的迭代框架,通过动态映射潜在特征到可训练的离散向量,并评估不确定性,专门扩展那些具有高不确定性的数据集的离散化字典或码本,从而在保持最小计算开销的同时明确解决数据分布的多样性,通过在五个数据集上进行实验,我们的方法展现了明显的优越性,实现了显著的准确度提升(3%--...
这篇文章介绍了一种名为基于不确定性的可扩展码本联邦学习(UEFL)的迭代框架,用于解决分布式数据集的异质性挑战。通过动态映射潜在特征到可训练的离散向量,并评估不确定性,该方法能够明确解决数据分布的多样性。实验结果表明,UEFL方法在准确度和不确定性降低方面都表现出明显的优势。