借助上下文信息增强基于人工智能的软件漏洞生成
原文中文,约300字,阅读约需1分钟。发表于: 。通过使用真实的 shellcode 数据集,本研究评估了神经机器翻译模型在各种情景下从自然语言描述生成攻击性安全代码的能力,发现引入上下文数据显著提高了模型的性能,但额外上下文的好处在一定程度后逐渐减少,表明模型训练的最佳上下文信息水平,并且这些模型展示了过滤掉不必要上下文并保持高准确率生成攻击性安全代码的能力,为未来关于优化 AI 驱动的代码生成中上下文使用的研究铺平了道路。
本研究评估了神经机器翻译模型在生成攻击性安全代码时的能力。结果显示,引入上下文数据可以提高模型性能,但额外上下文的好处逐渐减少。这为未来优化AI驱动的代码生成中上下文使用的研究提供了参考。