微软研究院开发新方法以加强AI模型中的隐私保护

微软研究院开发新方法以加强AI模型中的隐私保护

InfoQ InfoQ ·

微软AI研究团队提出了两种新方法以增强大型语言模型的上下文完整性:PrivacyChecker和CI-CoT + CI-RL。PrivacyChecker是一个开源模块,能在推理时保护隐私,减少信息泄露;CI-CoT + CI-RL通过链式思维和强化学习训练模型评估信息披露的适当性。这些方法旨在提升模型的隐私意识,增强用户信任。

关键要点

  • 微软AI研究团队提出了两种新方法以增强大型语言模型的上下文完整性:PrivacyChecker和CI-CoT + CI-RL。
  • PrivacyChecker是一个开源模块,能在推理时保护隐私,减少信息泄露。
  • CI-CoT + CI-RL通过链式思维和强化学习训练模型评估信息披露的适当性。
  • 上下文完整性定义隐私为在特定社会背景下信息流动的适当性。
  • 当前的大型语言模型缺乏上下文意识,可能会泄露敏感信息,损害用户信任。
  • PrivacyChecker在推理时进行检查,评估信息在请求生命周期中的多个阶段。
  • PrivacyChecker能够与现有模型兼容使用,无需重新训练。
  • 在PrivacyLens基准测试中,PrivacyChecker显著减少了信息泄露。
  • CI-CoT通过链式思维提示模型评估上下文信息披露规范。
  • CI-CoT在减少信息泄露的同时,可能会产生更保守的响应。
  • CI-RL通过强化学习训练模型判断信息是否应被包含。
  • CI-CoT + CI-RL的结合方法在减少泄露的同时保持了模型的原始性能。
  • 上下文完整性是一个新概念,由Google DeepMind和微软在大型语言模型研究中提出。
原文英文,约500词,阅读约需2分钟。
阅读原文