Anthropic的研究表明,仅需250个恶意示例即可在大型语言模型(LLM)中创建“后门”漏洞。随着模型规模的增大,攻击变得更加容易。研究指出,成功攻击的关键在于恶意文档的数量,而非其在训练数据中的比例。这一发现可能使毒化攻击更具可行性,威胁LLM的安全性。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: