大型语言模型(LLM)正逐步融入美国国防部(DoD)的工作流程, 包括在影响级别5(IL5)和影响级别6(IL6)环境中的试点项目。 IL5涵盖受控未分类信息(CUI)和任务敏感数据,IL6则涉及秘密级机密信息。 这些级别代表国防部最为严密的网络安全保障。
很多人容易误以为,在 IL5 或 IL6 环境中运行只读访问的 LLM 就能保证安全。 但这一假设忽视了一个关键事实:提示注入攻击不是针对网络或权限,而是针对模型的逻辑。 即便是置于最安全隔离区的“只读” LLM,也能被操控,从而泄露信息或绕过策略。 本文将说明 IL5/6 的防护不足之处,解析提示注入的原理,并指出国防部网络安全团队必须采取的应对措施。
IL5 和 IL6 认证保障网络和数据的安全性。 它们帮助您抵御对手,保护关键任务系统不受侵害。 但应用层威胁会完全绕过外围防御。 提示注入针对的是大型语言模型处理指令的方式,而非其网络环境。 即便在 IL6 环境中的模型,也可能因恶意或误导性提示而被骗。 这不仅仅是传统的网络入侵,而是使人工智能系统本身变成了攻击入口。
提示注入的概念简单,但其破坏性却极大。 攻击者不是入侵代码,而是通过提供精心编写的文本,让 AI 覆盖规则或泄露信息。 如果“安全”的系统指令与恶意指令同时出现,LLM 本身无法区分它们。
实际案例清晰地展示了这种情况的发生之易:
常见的缓解方法是只赋予LLM对数据的只读权限。 这虽然降低了LLM更改系统的风险,但无法防止它们泄露所读取的信息。 提示注入可能让AI模型总结或导出整个敏感文档,即使它本不该泄露这些内容。
为了降低风险,许多国防部试点正在采用检索增强生成(RAG)技术。 与其在敏感语料上预训练大型语言模型,不如通过RAG在每次查询时只检索精选数据库中的相关片段。 这样可以减少数据暴露,符合数据最小化原则。 RAG的优势明显:它让大部分敏感信息不进入模型的长期记忆,确保回答基于审核内容,并增强审计透明度。 但RAG无法完全避免提示注入风险。
确保大型语言模型安全,首先需转变思维:将人工智能视为不可信,直到证明其可靠。 对大型语言模型应用零信任,意味着验证并限制每一条输入,将输出视为不可信,直到经过扫描和批准,尽量减少模型可见或可执行的内容,且持续监控每次交互以发现异常。
在许多国防部的应用场景中,您通过供应商托管的API与大型语言模型(LLM)交互(例如,从应用程序调用OpenAI或Azure OpenAI端点)。 这一API层带来了自身的安全风险,包括模型滥用、权限过大的令牌、通过JSON注入的恶意负载以及端点数量不断增加。 F5 Distributed Cloud Web App和API保护(WAAP)解决方案通过自动发现AI相关API端点、执行模式验证、异常检测以及实时阻断注入尝试,帮助您应对这些安全挑战。
如今,大多数国防部的LLM应用都连接到供应商托管的模型。 这些出站的AI请求形成了盲区:加密的TLS流量中可能包含敏感的提示和回复。 F5 BIG-IP SSL Orchestrator通过解密并编排出站流量,让您能够依据策略进行检查,应对这一问题。 BIG-IP SSL Orchestrator让国防部团队清楚看到发送给外部AI服务的所有数据,执行数据防泄漏(DLP)规则以防止泄露,并审计所有AI交互。
随着国防部将内部大型语言模型部署到 IL5/IL6 等级基础设施,F5 AI Gateway 成为关键执行点,确保每条提示和回答严格遵守既定规则,实现 AI 行为的零信任检测。 它能实时阻断提示注入,执行基于角色的数据访问控制,并完整记录每次交互,确保合规透明。
生成式人工智能带来巨大任务优势,但前提是你必须清醒认识其风险。 IL5/6无法防范提示注入,只有分层零信任策略能做得到。 国防部团队应立即将人工智能纳入零信任架构,强化监控,严格控制人工智能数据流,就像管理敏感人类通信一样。
欲了解详情,请访问F5 公共部门解决方案网页。