规模化应用生成式AI前,需先绘制LLM使用与风险图谱 企业部署AI需先建立防护机制,否则将面临数据泄露、提示注入等重大风险。 在访谈中,The Motley Fool的Paolo del Mundo探讨了企业如何通过防护机制扩展AI应用,降低生成式AI的风险,包括提示注入和数据泄露。安全从业者需关注新型漏洞,OWASP大语言模型十大风险清单是良好起点。企业应清点LLM使用情况,确保负责任使用,实施输入输出净化和访问控制,保护敏感数据。红队测试和安全工具的集成至关重要,以确保模型行为受控并提升安全意识。 AI应用 ai llm 图谱 安全从业者 数据保护 红队测试 风险管理