联邦深度均衡学习:边缘通信效率的紧凑共享表示
原文中文,约300字,阅读约需1分钟。发表于: 。FeDEQ 是一种先驱性的联邦学习框架,利用深度均衡学习和一致性优化有效地在边缘节点之间利用紧凑的共享数据表示,允许派生个性化模型,并通过采用交替方向法解(ADMM)一致性优化的新型分布式算法,理论上证明了其收敛性。实验结果表明,与最先进的个性化方法相比,FeDEQ 在通信大小上使用的模型可小 4 倍,并且在训练时内存占用更少 1.5 倍,性能可媲美。
FeDEQ是一种先驱性的联邦学习框架,利用深度均衡学习和一致性优化有效地在边缘节点之间利用紧凑的共享数据表示,允许派生个性化模型,并通过采用交替方向法解(ADMM)一致性优化的新型分布式算法,理论上证明了其收敛性。