【AI安全论文】ESWA25评估大模型在真实攻击活动中的恶意代码解混淆能力

💡 原文中文,约8300字,阅读约需20分钟。
📝

内容提要

本文研究了大型语言模型(LLM)在Emotet恶意软件解混淆中的应用。结果显示,LLM在提取恶意脚本中的URL和域名方面表现良好,准确率分别为69.56%和88.78%。尽管模型尚不完美,但其在自动化威胁情报中的潜力显著,有望提升网络安全分析的效率与准确性。

🎯

关键要点

  • 本文研究了大型语言模型(LLM)在Emotet恶意软件解混淆中的应用。
  • LLM在提取恶意脚本中的URL和域名方面表现良好,准确率分别为69.56%和88.78%。
  • 尽管模型尚不完美,但其在自动化威胁情报中的潜力显著。
  • LLM能够有效去除载荷混淆,提升网络安全分析的效率与准确性。
  • 研究强调了针对特定任务进行模型微调的重要性。
  • 本文首次在大规模真实世界数据集上系统性应用LLM开展恶意脚本去混淆研究。
  • 实验结果显示,GPT-4在准确率与稳定性方面显著领先于其他模型。
  • LLM在恶意代码分析中展现出强大的潜力,尤其是在处理复杂混淆技术时。
  • 未来研究应集中于降低幻觉现象、优化训练数据质量和探索轻量化模型。
  • LLM可作为传统分析工具的重要补充,提升恶意软件分析与威胁情报流程的自动化程度。

延伸问答

大型语言模型在恶意代码解混淆中的应用效果如何?

大型语言模型在提取恶意脚本中的URL和域名方面表现良好,准确率分别为69.56%和88.78%。

研究中使用了哪些大型语言模型进行恶意代码解混淆?

研究中使用了GPT-4、Gemini Pro、Code Llama和Mixtral四种大型语言模型。

LLM在恶意代码分析中有哪些潜在优势?

LLM能够有效去除载荷混淆,提升网络安全分析的效率与准确性,尤其在处理复杂混淆技术时表现出强大潜力。

研究强调了什么关于模型微调的重要性?

研究强调了针对特定任务进行模型微调的重要性,以提升LLM在恶意代码解混淆中的表现。

未来的研究方向有哪些?

未来研究应集中于降低幻觉现象、优化训练数据质量和探索轻量化模型。

GPT-4在恶意代码解混淆中的表现如何?

GPT-4在准确率与稳定性方面显著领先于其他模型,尤其在提取域名时表现最佳,准确率高达88.78%。

➡️

继续阅读