该研究揭示了语言模型的安全训练和红队测试中存在的语言不平等性跨语言漏洞。研究发现,通过将不安全的英文输入转化为低资源语言,可以规避GPT-4的安全机制。研究还发现,GPT-4在与这些不安全的翻译输入互动时会提供可行的建议,并成功帮助用户实现有害目标的可能性高达79%。该研究呼吁加强整体红队测试工作,以开发具有广泛语言覆盖能力的强大多语言安全保护措施。
研究发现语言模型的人工智能安全训练和红队测试存在语言不平等性跨语言漏洞,呼吁加强整体红队测试工作,开发具有广泛语言覆盖能力的多语言安全保护措施。
完成下面两步后,将自动完成登录并继续当前操作。