尽管GitHub Copilot在编码方面表现出色,但它是否确保负责任的输出?
原文中文,约400字,阅读约需1分钟。发表于: 。本研究针对大语言模型(LLMs)基础的代码补全工具(LCCTs)在安全性方面的缺陷进行了调查,聚焦于越狱攻击和训练数据提取攻击两大风险。通过实验,我们揭示了LCCTs的重大漏洞,如对GitHub Copilot的越狱攻击成功率高达99.4%,并成功提取了敏感用户信息,强调了现代LLMs处理代码时存在的安全不一致性。这一发现对加强LCCTs的安全框架具有重要意义。
本文研究了代码生成中的语言模型(LLMs)的安全性,并提出了SecuCoGen数据集来评估和增强代码LLMs的安全性能。研究发现现有模型在代码生成中忽视安全问题,提出了解决安全漏洞的方法。此外,研究还发现现有模型在修复漏洞代码方面存在问题。研究结果对软件工程社区有积极影响,促进改进LLMs训练和使用方法,实现更安全、可信的模型部署。