【AI安全论文】ESWA25评估大模型在真实攻击活动中的恶意代码解混淆能力

本文将详细介绍评估LLMs在真实恶意软件活动的恶意代码解混淆能力,展示了大模型在有效去除载荷混淆方面的巨大潜力。

本文研究了大型语言模型(LLM)在Emotet恶意软件解混淆中的应用。结果显示,LLM在提取恶意脚本中的URL和域名方面表现良好,准确率分别为69.56%和88.78%。尽管模型尚不完美,但其在自动化威胁情报中的潜力显著,有望提升网络安全分析的效率与准确性。

原文中文,约8300字,阅读约需20分钟。发表于:
阅读原文