FedPT:在资源受限的边缘设备上进行联邦代理调优的大型语言模型
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出FedPT框架,通过仅访问模型输出预测,解决大型预训练语言模型微调时的隐私和计算负担问题,适用于资源有限设备。实验表明,FedPT在保持性能的同时,大幅降低计算、通信和内存开销,具有广泛应用潜力。
🎯
关键要点
- 本研究提出FedPT框架,解决大型预训练语言模型微调时的隐私和计算负担问题。
- FedPT框架仅需访问模型对输出词汇的预测,而非参数。
- 该框架适用于资源有限的设备,能够有效进行联邦微调。
- 实验结果表明,FedPT在保持性能的同时,显著降低了计算、通信和内存开销。
- FedPT具有广泛的应用潜力。
➡️