FedEAT: A Robustness Optimization Framework for Federated Large Language Models
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了FedEAT框架,旨在提高联邦大语言模型在数据异质性、恶意客户端和对抗攻击等方面的鲁棒性。通过对抗训练和几何中位数聚合,FedEAT有效提升了模型的鲁棒性,且性能损失最小。
🎯
关键要点
-
FedEAT框架旨在提高联邦大语言模型的鲁棒性,解决数据异质性、恶意客户端和对抗攻击等问题。
-
FedEAT通过在客户LLM的嵌入空间应用对抗训练,结合几何中位数聚合方法来增强模型的鲁棒性。
-
实验结果表明,FedEAT有效提升了联邦LLM的鲁棒性,并且性能损失最小。
➡️