减轻未经授权的语音合成以保护声音
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
最近,Whisper等大型语音模型在自动语音识别中广泛应用,但研究表明其易受对抗攻击。我们提出了一种通过添加特殊令牌使模型“静音”的方法,实验显示该方法在97%的样本中有效。这表明Whisper模型在现实环境中存在脆弱性,可能影响私人数据的安全。
🎯
关键要点
- Whisper等大型语音模型在自动语音识别中广泛应用。
- 研究表明这些模型易受对抗攻击,可能被利用操纵模型行为。
- 提出了一种通过添加特殊令牌使模型“静音”的方法。
- 实验显示该方法在97%的样本中有效。
- 发现该对抗音频片段可迁移到新的数据集和任务上。
- Whisper模型对“静音”对抗性攻击存在脆弱性,可能影响私人数据安全。
➡️