小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

谷歌在网络安全方面采取了多种现代化措施,包括威胁检测、漏洞管理和利用AI增强防御能力。通过安全设计和网络安全策略,确保云环境的安全性,并利用威胁情报追踪网络犯罪,通过红队测试发现系统弱点。

谷歌如何做到的:网络安全内幕

The Keyword
The Keyword · 2026-03-27T21:00:00Z

OpenAI推出的Guardrails安全框架旨在提升AI安全性,但研究显示其存在漏洞,攻击者可通过提示注入绕过安全检测,生成有害内容。这一发现突显了保护AI系统的挑战,专家建议采用独立验证和红队测试以增强防御。

OpenAI安全护栏框架破绽百出,简单提示注入即可绕过

FreeBuf网络安全行业门户
FreeBuf网络安全行业门户 · 2025-10-13T18:12:12Z
PersonaTeaming:探索引入角色如何提升自动化AI红队测试的效果

本文介绍了PersonaTeaming方法,通过引入角色提升AI模型在自动化红队测试中的风险识别能力。该方法利用“红队专家”或“普通用户”角色生成对抗性提示,实验结果显示攻击成功率提高了144.1%。研究分析了不同角色类型和变异方法的优缺点,为未来自动化与人工红队测试的结合提供了新思路。

PersonaTeaming:探索引入角色如何提升自动化AI红队测试的效果

Apple Machine Learning Research
Apple Machine Learning Research · 2025-09-26T00:00:00Z

2015年,我创立了一家专注于自动化渗透测试的网络安全软件公司。随着AI的发展,未来五年内,安全验证方式将发生显著变化。Pentera的愿景是通过AI实现情境化红队测试,使安全验证更加智能和互动。AI将贯穿测试生命周期,提高攻击模拟的准确性和实时性,保障企业安全。

AI 正在重塑安全渗透测试——Pentera创始人的愿景

FreeBuf网络安全行业门户
FreeBuf网络安全行业门户 · 2025-08-06T03:20:00Z

在访谈中,The Motley Fool的Paolo del Mundo探讨了企业如何通过防护机制扩展AI应用,降低生成式AI的风险,包括提示注入和数据泄露。安全从业者需关注新型漏洞,OWASP大语言模型十大风险清单是良好起点。企业应清点LLM使用情况,确保负责任使用,实施输入输出净化和访问控制,保护敏感数据。红队测试和安全工具的集成至关重要,以确保模型行为受控并提升安全意识。

规模化应用生成式AI前,需先绘制LLM使用与风险图谱

FreeBuf网络安全行业门户
FreeBuf网络安全行业门户 · 2025-06-16T21:30:33Z

谷歌DeepMind发布白皮书,介绍Gemini 2.5在安全性方面的提升,特别是针对间接提示注入攻击的防御。通过自动化红队测试和模型强化,Gemini的防御能力显著提高,降低了攻击成功率,但仍需持续改进以应对不断演变的威胁。

提升Gemini的安全防护措施

Google DeepMind Blog
Google DeepMind Blog · 2025-05-20T09:45:00Z

本研究探讨了大型语言模型(LLMs)在红队测试中的局限性,并提出通过代码混合和语音扰动的新策略。研究表明,利用语音错误拼写的混合提示,成功绕过安全过滤器,文本和图像生成任务的成功率分别为99%和78%,对多语言模型的安全性改进具有重要意义。

Language Discrimination and Code-Mixing: Phonetic Perturbations in Code-Mixed Hinglish for Red-Teaming Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-20T00:00:00Z
AI代理是安全定时炸弹

伊利亚·苏茨克维尔指出,AI系统推理能力越强,行为越不可预测。他强调AI代理面临外部操控风险,需通过红队测试确保安全。红队模拟攻击以识别脆弱性,帮助开发者改进安全措施,应对复杂环境挑战。

AI代理是安全定时炸弹

The New Stack
The New Stack · 2025-03-24T16:00:44Z

AI系统在生活中日益重要,但存在缺陷。红队测试可识别其弱点,确保安全性。通过模拟攻击和偏见识别,组织能够改进系统,防止严重问题。随着AI技术的发展,建立强有力的安全措施至关重要。

为何AI系统比以往任何时候都更需要红队测试

FreeBuf网络安全行业门户
FreeBuf网络安全行业门户 · 2025-03-22T14:56:50Z
AI安全研究揭示100种产品在黑客式测试后常见的漏洞

本文总结了一项研究,分析了100种生成性AI产品的安全漏洞。通过红队测试,识别攻击向量和防御策略,并提出改进AI系统安全的建议。

AI安全研究揭示100种产品在黑客式测试后常见的漏洞

DEV Community
DEV Community · 2025-01-16T08:13:03Z

全国公安机关去年侦破1600余起网络黑客案,抓获4900人,维护网络安全。英国提议禁止公共部门支付勒索款,美国金融机构因数据泄露被罚超1.4亿元。微软认为红队测试仍需人类参与,多个行业和机构遭遇勒索软件攻击。

FreeBuf早报 | 由AI大模型生成的勒索软件被曝光;恶意软件利用0Day远程控制Linux

FreeBuf网络安全行业门户
FreeBuf网络安全行业门户 · 2025-01-14T08:31:10Z

微软研究人员指出,尽管AI工具能简化红队测试中的攻击模拟,但人类的专业知识在发现漏洞和评估风险方面仍不可或缺。研究强调文化能力和情商在AI安全中的重要性,并指出生成式AI模型可能带来新漏洞,需关注操作员的心理健康。

AI抢不走的工作,微软力挺红队测试仍需人类“掌舵”

FreeBuf网络安全行业门户
FreeBuf网络安全行业门户 · 2025-01-14T02:32:41Z
“学生-教师”对抗红队测试探查AI漏洞以增强鲁棒性

研究提出了一种新方法,通过“学生-教师”对抗模型测试AI系统的安全性。学生模型尝试规避教师模型的检测,揭示系统漏洞,类似红队测试。此方法旨在提高AI模型的可靠性,但其可扩展性、效率和伦理影响需进一步研究。

“学生-教师”对抗红队测试探查AI漏洞以增强鲁棒性

DEV Community
DEV Community · 2024-10-02T08:32:20Z
OpenAI o1 系统卡外部测试人员致谢

文章列出了参与红队测试的个人和组织,强调了社区合作与伦理安全的重要性。

OpenAI o1 系统卡外部测试人员致谢

OpenAI
OpenAI · 2024-09-12T10:00:00Z

GPT-4V是一种强大的多模态信息整合和处理能力的语言模型。研究者提出了AutoJailbreak技术,利用大型语言模型进行红队测试,提高攻击成功率。该研究为增强GPT-4V的安全性提供了新思路。

大型语言模型能否自动越狱 GPT-4V?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-07-23T00:00:00Z

本文研究了大型语言模型的红队测试和越狱概念,发现注入准确信息对模型的可靠性至关重要,但可能破坏其基础框架,产生不安全行为。同时,提出了一个基准数据集用于研究模型在不同主题领域内的不安全行为。研究结果表明,模型编辑是一种成本效益高的工具,可进行主题相关红队测试。

对大型语言模型进行可证修复或攻击的隐形编辑

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-18T00:00:00Z

OpenAI的红队测试是一个结构化的过程,旨在探查AI系统和产品的潜在风险,并构建更安全、更值得信赖的AI系统。红队测试发现了DALL-E 2的独特攻击面和风险,以及GPT-4的风险领域,为下游应用的安全开发提供借鉴意义。红队测试的主要局限性是依赖专家手工评估,未来需要加强自动化测试能力和扩大红队的多样性。红队测试在确保AI系统的安全部署中扮演着重要角色,其独特价值在于主动发现风险、换位思考和持续优化。

我参加了 OpenAI 红队的活动,并带来了一些笔记

FreeBuf网络安全行业门户
FreeBuf网络安全行业门户 · 2024-04-10T05:59:34Z

OpenAI将于6月发布GPT-5,可能会提前发布。OpenAI优先考虑GPT-5的安全性,并进行严格的红队测试以识别潜在的系统漏洞。红队测试是AI开发领域中的重要安全措施,以应对强大的AI工具的能力。微软也在大力投资AI工具的红队测试。红队测试对于解决安全问题和确保负责任的AI开发至关重要。NIST和各种技术公司正在致力于制定AI红队测试标准。

GPT-5将在6月发布前进行「红队进攻测试」

FreeBuf网络安全行业门户
FreeBuf网络安全行业门户 · 2024-04-07T07:17:08Z

该研究揭示了语言模型的安全训练和红队测试中存在的语言不平等性跨语言漏洞。研究发现,通过将不安全的英文输入转化为低资源语言,可以规避GPT-4的安全机制。研究还发现,GPT-4在与这些不安全的翻译输入互动时会提供可行的建议,并成功帮助用户实现有害目标的可能性高达79%。该研究呼吁加强整体红队测试工作,以开发具有广泛语言覆盖能力的强大多语言安全保护措施。

快速采用,隐含风险:大型语言模型定制的双重影响

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-02-14T00:00:00Z
对NIST关于人工智能的行政命令的回应

OpenAI成立于2015年,作为非营利组织,致力于确保通用人工智能造福全人类,重点关注AI能力评估、红队测试和合成媒体来源问题。

对NIST关于人工智能的行政命令的回应

OpenAI
OpenAI · 2024-02-02T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码