【AI安全论文】ESWA25评估大模型在真实攻击活动中的恶意代码解混淆能力

💡 原文中文,约8300字,阅读约需20分钟。
📝

内容提要

本文研究了大型语言模型(LLM)在Emotet恶意软件解混淆中的应用。结果显示,LLM在提取恶意脚本中的URL和域名方面表现良好,准确率分别为69.56%和88.78%。尽管模型尚不完美,但其在自动化威胁情报中的潜力显著,有望提升网络安全分析的效率与准确性。

🎯

关键要点

  • 本文研究了大型语言模型(LLM)在Emotet恶意软件解混淆中的应用。
  • LLM在提取恶意脚本中的URL和域名方面表现良好,准确率分别为69.56%和88.78%。
  • 尽管模型尚不完美,但其在自动化威胁情报中的潜力显著。
  • LLM能够有效去除载荷混淆,提升网络安全分析的效率与准确性。
  • 研究强调了针对特定任务进行模型微调的重要性。
  • 本文首次在大规模真实世界数据集上系统性应用LLM开展恶意脚本去混淆研究。
  • 实验结果显示,GPT-4在准确率与稳定性方面显著领先于其他模型。
  • LLM在恶意代码分析中展现出强大的潜力,尤其是在处理复杂混淆技术时。
  • 未来研究应集中于降低幻觉现象、优化训练数据质量和探索轻量化模型。
  • LLM可作为传统分析工具的重要补充,提升恶意软件分析与威胁情报流程的自动化程度。
➡️

继续阅读