字节跳动安全研究团队公布大模型联邦精调最新研究进展

💡 原文中文,约3100字,阅读约需8分钟。
📝

内容提要

字节跳动安全研究团队与南京大学合作发布了一项研究论文,提出了一种基于分割学习的联邦精调框架,用于解决大语言模型精调服务中的模型和数据隐私问题。该框架能够在保护隐私的同时提升模型的可用性。

🎯

关键要点

  • 字节跳动安全研究团队与南京大学合作发布研究论文,提出基于分割学习的联邦精调框架。
  • 该框架旨在解决大语言模型精调服务中的模型和数据隐私问题。
  • 研究背景中提到,预训练语言模型在多个领域展现强大能力,但精调任务受限于计算资源和技术。
  • 主流的MaaS服务商提供丰富的预训练模型和训练服务,但也带来隐私泄露风险。
  • 字节跳动提出的SAP框架能够有效保护模型和用户数据隐私,同时提升模型可用性。
  • SAP框架通过将预训练模型分为服务商侧的顶层模型和用户侧的底层模型来实现隐私保护。
  • 用户通过底层模型将私有数据转换为向量化文本表示,并进行隐私化扰动后发送给服务商。
  • 框架结合多种精调方法以提升效率,包括LoRA、BitFit和Adapter Tuning。
  • 引入文本隐私化机制可能导致模型性能损失,论文提出基于贡献度衡量的方法来改善效用与隐私的权衡。
  • 评估SAP框架的隐私保护能力采用了嵌入反演攻击和属性推理攻击的方法。
  • 实验结果表明,SAP框架在保护隐私的同时,能够保持模型的高可用性。
  • 字节跳动安全研究团队致力于隐私计算技术的前沿研究与应用探索,帮助用户解决业务需求与挑战。
➡️

继续阅读