大型语言模型(LLMs)是本十年最重大的技术突破之一,但容易受到提示注入攻击。研究人员尚未找到完全防止提示注入的方法,但可以采取措施减轻风险。组织可以通过验证输入、监控LLM活动、保持人工干预等方式来减少提示注入攻击的成功率和损害。
完成下面两步后,将自动完成登录并继续当前操作。