【AI安全论文】ESWA25评估大模型在真实攻击活动中的恶意代码解混淆能力 本文将详细介绍评估LLMs在真实恶意软件活动的恶意代码解混淆能力,展示了大模型在有效去除载荷混淆方面的巨大潜力。 本文研究了大型语言模型(LLM)在Emotet恶意软件解混淆中的应用。结果显示,LLM在提取恶意脚本中的URL和域名方面表现良好,准确率分别为69.56%和88.78%。尽管模型尚不完美,但其在自动化威胁情报中的潜力显著,有望提升网络安全分析的效率与准确性。 Emotet ai 大型语言模型 大模型 威胁情报 安全 恶意代码 网络安全