通过多任务指令微调增强泛化的代码漏洞检测
原文中文,约300字,阅读约需1分钟。发表于: 。Code Pre-trained Models (CodePTMs) based vulnerability detection struggles to generalize as they typically learn superficial mapping from source code to labels, resulting in poor performance in...
作者提出了名为LLM4Vuln的统一评估框架,用于增强LLMs的漏洞推理能力。通过测试三个代表性的LLMs在4950种不同场景下的表现,揭示了关于知识增强、上下文补充、提示方案和模型的变化效果的十个发现。在两个试点的漏洞赏金计划中,发现了9个零日漏洞,并颁发了超过1,000美元的奖励。