本研究探讨了大型语言模型(LLMs)在红队测试中的局限性,并提出通过代码混合和语音扰动的新策略。研究表明,利用语音错误拼写的混合提示,成功绕过安全过滤器,文本和图像生成任务的成功率分别为99%和78%,对多语言模型的安全性改进具有重要意义。
本研究探讨了SLAM-ASR在不同场景和语音条件下的鲁棒性,揭示了其在跨领域评估中的不足及语音扰动对性能的影响,为LLM-ASR模型的优化提供了见解。
完成下面两步后,将自动完成登录并继续当前操作。