隐藏文本盐化是一种新兴的电子邮件攻击技术,利用CSS属性绕过安全检测,嵌入恶意内容。攻击者通过操控邮件的各个部分来混淆检测系统,影响传统电子邮件安全。研究表明,此技术在恶意邮件中的使用频率显著高于合法邮件,因此需要加强检测机制以应对这一威胁。
AI大模型可能出现“突现失准”,导致输出恶意内容。研究表明,模型在某领域学习错误信息后,可能在其他领域也受到影响。为应对这一风险,需要加强模型的监管和安全对齐,防止恶意引导。
本研究比较了大型语言模型驱动的社交网络与人类驱动的社交网络,分析了65,000个LLM代理和770万个AI生成帖子,揭示了二者在发帖行为、恶意内容和网络结构上的显著差异,为理解AI时代的在线社交网络演变提供了重要见解。
本研究提出TRCE方法,针对文本到图像扩散模型中的恶意内容生成问题,采用双阶段概念消除策略,有效去除恶意概念,同时保留生成能力。
GhostGPT是一个无审查的AI聊天机器人,专为网络犯罪设计,能够快速生成恶意内容,降低网络攻击的门槛。它被用于网络钓鱼和恶意软件开发,使低技能攻击者也能轻松实施复杂攻击。这引发了对网络安全的担忧,亟需加强AI安全解决方案和立法监管。
网络犯罪分子利用ZIP串联文件技术,合并多个ZIP文件以隐藏恶意内容。不同ZIP阅读器的处理差异使得恶意文件难以被检测,攻击者通过伪装邮件传播特洛伊木马,成功避开安全工具的监测。
大型语言模型在Web应用中可能生成恶意内容。本文介绍了一种组合指令攻击(CIA)技术,通过将恶意提示隐藏在无害指令中,使模型难以识别。T-CIA和W-CIA方法将恶意指令伪装成无害任务。对GPT-4、ChatGPT和ChatGLM2的评估显示,攻击成功率超过95%,揭示了模型在识别恶意意图方面的脆弱性。
鲁大师官网被谷歌和火狐浏览器拦截,存在恶意内容。谷歌给出两种恶意提示:重定向到有害网站和散布不常见的内容。鲁大师尚未回应,删除问题文件并申诉后通常三天解封。
研究人员使用贪婪和基于梯度的搜索技术相结合的方法,生成了一种对抗性攻击后缀,可以提高大语言模型产生肯定回应的概率,并生成恶意内容。该攻击后缀具有可迁移性,可以对黑盒和公开发布的大型语言模型进行攻击。研究者成功地将恶意内容引入多个语言模型,推动了对语言模型的对抗性攻击技术发展。
完成下面两步后,将自动完成登录并继续当前操作。