FedPT:在资源受限的边缘设备上进行联邦代理调优的大型语言模型

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出FedPT框架,通过仅访问模型输出预测,解决大型预训练语言模型微调时的隐私和计算负担问题,适用于资源有限设备。实验表明,FedPT在保持性能的同时,大幅降低计算、通信和内存开销,具有广泛应用潜力。

🎯

关键要点

  • 本研究提出FedPT框架,解决大型预训练语言模型微调时的隐私和计算负担问题。
  • FedPT框架仅需访问模型对输出词汇的预测,而非参数。
  • 该框架适用于资源有限的设备,能够有效进行联邦微调。
  • 实验结果表明,FedPT在保持性能的同时,显著降低了计算、通信和内存开销。
  • FedPT具有广泛的应用潜力。
➡️

继续阅读