FedLF:联邦长尾学习中的自适应Logit调整与特征优化
原文中文,约200字,阅读约需1分钟。发表于: 。本研究旨在解决传统联邦学习方法未能有效应对全局长尾数据的类别偏差问题,从而导致模型在处理头类别时忽视尾类别。我们提出了一种新方法FedLF,通过自适应Logit调整、连续类中心优化和特征去相关来优化本地训练阶段,实验证明该方法能够有效缓解数据异构性和长尾分布导致的模型性能下降。
本研究提出了FedLF方法,通过自适应Logit调整、连续类中心优化和特征去相关来解决传统联邦学习方法在处理全局长尾数据时的类别偏差问题。实验证明该方法能够缓解数据异构性和长尾分布导致的模型性能下降。