导入幻影:测量大型语言模型包的幻觉脆弱性
📝
内容提要
本研究针对大型语言模型(LLMs)在软件供应链中引入潜在脆弱性的幻觉现象进行了分析。通过研究流行编程语言中的包幻觉行为,提出了识别攻击及防御策略的创新性见解,发现包幻觉率受多种因素影响,且新的评估指标为未来提高安全性的模型开发奠定了基础。
🏷️
标签
➡️