双向 Transformer vs. word2vec:发现提升编译代码中的漏洞
📝
内容提要
利用自然语言处理(NLP)中的 word2vec、BERT 和 RoBERTa 等嵌入技术,通过学习中间表示(LLVM)代码的语义,利用长短期记忆(LSTM)神经网络对 Juliet 数据集中近 118k 个 LLVM 函数的嵌入进行训练,进而检测编译二进制文件中的漏洞。研究结果显示,与复杂的上下文 NLP 嵌入相比,word2vec 连续词袋(CBOW)模型在检测漏洞方面取得了...
🏷️
标签
➡️