新发现!卡巴斯基称ChatGPT可用于恶意代码识别
💡
原文中文,约1600字,阅读约需4分钟。
📝
内容提要
随着ChatGPT大型语言模型的流行,安全工作者也开始尝试它在抵御安全威胁方面的能力,实验表明它能够识别恶意进程、发现代码漏洞和收集取证信息,但无法识别众所周知的哈希值,安全专家需要注意可能产生的误报和漏报,以及确保提交的数据不违反公司政策。
🎯
关键要点
-
ChatGPT在抵御安全威胁方面的能力受到网络安全工作者的关注。
-
实验表明,ChatGPT能够识别恶意进程和发现代码漏洞。
-
卡巴斯基的实验中,ChatGPT成功识别了2个恶意进程,并排除了137个良性进程。
-
ChatGPT在分析3500多个事件的元数据时发现了74个潜在的危害指标,但有17个是误报。
-
ChatGPT无法识别众所周知的哈希值和域名,例如WannaCry的哈希值。
-
安全专家建议使用ChatGPT时要小心,尤其是在超出其能力范围的任务上。
-
结果的准确性存在问题,可能产生误报和漏报。
-
安全专家需注意提交的数据是否违反公司政策,尤其是涉及敏感信息和知识产权的代码。
➡️