新发现!卡巴斯基称ChatGPT可用于恶意代码识别

💡 原文中文,约1600字,阅读约需4分钟。
📝

内容提要

随着ChatGPT大型语言模型的流行,安全工作者也开始尝试它在抵御安全威胁方面的能力,实验表明它能够识别恶意进程、发现代码漏洞和收集取证信息,但无法识别众所周知的哈希值,安全专家需要注意可能产生的误报和漏报,以及确保提交的数据不违反公司政策。

🎯

关键要点

  • ChatGPT在抵御安全威胁方面的能力受到网络安全工作者的关注。

  • 实验表明,ChatGPT能够识别恶意进程和发现代码漏洞。

  • 卡巴斯基的实验中,ChatGPT成功识别了2个恶意进程,并排除了137个良性进程。

  • ChatGPT在分析3500多个事件的元数据时发现了74个潜在的危害指标,但有17个是误报。

  • ChatGPT无法识别众所周知的哈希值和域名,例如WannaCry的哈希值。

  • 安全专家建议使用ChatGPT时要小心,尤其是在超出其能力范围的任务上。

  • 结果的准确性存在问题,可能产生误报和漏报。

  • 安全专家需注意提交的数据是否违反公司政策,尤其是涉及敏感信息和知识产权的代码。

➡️

继续阅读