基于低秩训练的高效通信联邦推荐系统
原文中文,约200字,阅读约需1分钟。发表于: 。在联邦推荐系统中,通信成本是一个关键瓶颈,该研究提出了一种名为 Correlated Low-rank Structure (CoLR) 的新框架,通过调整轻量级可训练参数并保持大部分参数冻结,大幅降低通信开销并与安全聚合协议兼容。该方法在数据集范围内减少了高达 93.75% 的负载大小,仅导致推荐性能下降约 8%。
本文研究了在通信成本和隐私保护的限制下联邦表示学习的可行性。通过自监督对比本地训练的鲁棒性,提出了一种新的Federated representation Learning框架,使用相似度蒸馏对全局模型进行训练。实验证明该方法在多种数据集上能够以可比较的结果实现多种设置下的性能。