本文分析了AI时代服务端浏览器的安全风险,提出了以“静态攻击面收敛 + 动态行为隔离”为核心的防御框架,并开源了防护方案SEChrome,以提升企业服务端浏览器的安全性。
本研究提出了一种名为奖励中和的防御框架,旨在解决强化学习微调对大型语言模型安全性造成的漏洞。该框架通过拒绝模式有效阻止恶意奖励信号的影响,实验结果表明模型在攻击后有害得分保持较低,为开源模型的安全提供了新思路。
本研究提出了CurvaLID防御框架,旨在解决大型语言模型在安全部署中面临的对抗性提示挑战。该框架通过几何特性高效检测对抗性提示,揭示其与良性提示的区别,展现出优越的检测和拒绝能力。
本研究提出AEIOU防御框架,针对文本到图像模型中的不安全提示问题,通过提取文本编码器隐状态中的不安全特征,显著提高检测准确性和效率,准确率超过95%。
AIxiv专栏介绍了一种针对LLM提示词注入攻击的防御框架,提出了安全前端、结构化指令微调和安全对齐三种策略,有效降低攻击成功率,确保LLM应用系统安全。
本研究提出了多智能体防御框架G4D,以增强大型语言模型的安全性和对攻击的稳健性,同时保持其通用功能。
大型语言模型的安全挑战主要集中在Prompt Hacking和Adversarial Attacks两个领域。本文分析了这些威胁的工作原理、潜在影响和缓解方法,并提出了保护LLMs的强大防御框架。调查为构建抵御复杂攻击的坚韧人工智能系统提供了宝贵的讨论。
本文指出大型语言模型在LLM集成应用中存在安全漏洞,容易受到提示注入攻击。作者提出了一般性的框架来理解和设计这种攻击,并提出了对应的防御框架。作者还对10个LLM和7个任务进行了系统评估。
完成下面两步后,将自动完成登录并继续当前操作。