本研究提出了“揭开画布”基准(UTCB),旨在解决大型语言模型在图像生成中的内容安全性问题,并评估模型的脆弱性,具有重要的安全评估和改进潜力。
本研究探讨了自然语言处理安全中的伦理问题,分析了模型的脆弱性及其防范措施,指出在伤害最小化和负责任披露等主题上存在空白,并提出提升研究者伦理意识的建议。
本文研究了大型语言模型在代码理解中的脆弱性,特别是隐形字符攻击的影响。通过四种攻击方式评估其对代码分析的影响,发现早期版本的ChatGPT对干扰敏感,而近期版本在特定条件下有所改善。研究建议未来应增强模型对扰动的抵御能力。
本研究提出了一种新型对抗攻击方法,针对神经机器翻译(NMT)模型。通过在句子间插入一个词,研究者能够使第二个句子在翻译中被忽略,从而隐藏恶意信息。实验结果显示,超过50%的NMT模型对这种攻击表现出脆弱性。
本文提出了一种新的毒化攻击方式——延迟毒化攻击,针对深度学习模型的脆弱性。该方法在训练和验证阶段表现正常,但对规避攻击和自然噪声极为敏感,显著降低了模型的鲁棒性。
本研究提出了一种新方法,将杂乱的对抗性提示转化为连贯文本,解决现有越狱攻击方法的局限性。此方法揭示并转移模型脆弱性,提高了攻击成功率,为设计越狱攻击提供新思路。
本文介绍了AttaQ数据集,评估了模型的脆弱性,并使用聚类技术自动识别和命名脆弱的语义区域,以增强对模型弱点的评估。
完成下面两步后,将自动完成登录并继续当前操作。