XGV-BERT:基于上下文化语言模型和图神经网络的高效软件漏洞检测
原文中文,约300字,阅读约需1分钟。发表于: 。我们提出了一种名为 XGV-BERT 的框架,结合预训练的 CodeBERT 模型和图神经网络(GCN)来检测软件漏洞,通过联合训练 CodeBERT 和 GCN 模块,该模型利用大规模预训练、通过图卷积学习训练数据的表示,其研究结果表明与 VulDeePecker 和 SySeVR 等现有方法相比,XGV-BERT 方法显著提高了漏洞检测的准确性。
该文介绍了一种结合RoBERTa和GCN模型的多任务分类器,用于代码漏洞检测。该模型采用语义性漏洞图降低偏差,结合Focal Loss目标函数降低数据集不平衡的影响。在多个数据集测试中,该模型表现优异,能够提高检测效果,并在针对Github代码库的N-day程序样本的测试中表现出93%的准确率,能够检测出4种零日漏洞。