微软研究院开发新方法以加强AI模型中的隐私保护
微软AI研究团队提出了两种新方法以增强大型语言模型的上下文完整性:PrivacyChecker和CI-CoT + CI-RL。PrivacyChecker是一个开源模块,能在推理时保护隐私,减少信息泄露;CI-CoT + CI-RL通过链式思维和强化学习训练模型评估信息披露的适当性。这些方法旨在提升模型的隐私意识,增强用户信任。
关键要点
- 微软AI研究团队提出了两种新方法以增强大型语言模型的上下文完整性:PrivacyChecker和CI-CoT + CI-RL。
- PrivacyChecker是一个开源模块,能在推理时保护隐私,减少信息泄露。
- CI-CoT + CI-RL通过链式思维和强化学习训练模型评估信息披露的适当性。
- 上下文完整性定义隐私为在特定社会背景下信息流动的适当性。
- 当前的大型语言模型缺乏上下文意识,可能会泄露敏感信息,损害用户信任。
- PrivacyChecker在推理时进行检查,评估信息在请求生命周期中的多个阶段。
- PrivacyChecker能够与现有模型兼容使用,无需重新训练。
- 在PrivacyLens基准测试中,PrivacyChecker显著减少了信息泄露。
- CI-CoT通过链式思维提示模型评估上下文信息披露规范。
- CI-CoT在减少信息泄露的同时,可能会产生更保守的响应。
- CI-RL通过强化学习训练模型判断信息是否应被包含。
- CI-CoT + CI-RL的结合方法在减少泄露的同时保持了模型的原始性能。
- 上下文完整性是一个新概念,由Google DeepMind和微软在大型语言模型研究中提出。
原文英文,约500词,阅读约需2分钟。