在人工智能领域中,保护大型语言模型的知识产权变得关键。研究人员提出了一种新方法,在语言模型中嵌入可学习的语言水印,以追踪和防止模型提取攻击。该方法在鲁棒性和输出质量之间取得了平衡,并保留了模型的原始性能。
在人工智能领域中,保护大型语言模型(LLMs)的知识产权变得越来越重要。研究人员提出了一种新方法,在LLMs中嵌入可学习的语言水印,以追踪和防止模型提取攻击。该方法通过微妙地修改LLM的输出分布,嵌入可统计辨识的水印,平衡了鲁棒性和输出质量,并保留了LLM的原始性能。
完成下面两步后,将自动完成登录并继续当前操作。