博客

保护新的人工智能攻击面 F5 WAF 解决方案如何守护 MCP 服务器

根据 F5《2025 年人工智能应用战略报告》,96% 的组织已在关键工作流程中部署 AI 模型,但仅有 2% 达到“高度 AI 准备”水平。 这种准备差距给安全团队带来重大挑战,使他们难以跟上创新的步伐。

人工智能代理已不再是未来的概念;它们已融入您的企业运营中。 Claude、ChatGPT 和 Llama 等工具正成为日常工作流程的组成部分,从客户支持到代码生成再到IT自动化。 因此,开发人员越来越多地采用模型上下文协议(MCP),这是一种轻量且开放的标准,能让AI模型与工具、应用及服务有效交流。 然而,随着人工智能代理开始执行实际操作,一个关键问题随之出现: 您如何像保护其他企业软件一样,保障代理式人工智能应用的安全?

随着 MCP 的发展,这个问题变得更加紧迫,因为它让开发人员能够轻松地将 AI 模型连接到数据源以及文件系统和内部应用等功能。 这使得 AI 代理能够获取文档、更新任务或触发工作流程。 但每新增一个 API 或协议,也就带来了新的攻击面。 而且对于 AI 代理来说,风险已经不再是理论上的。

采用 MCP 正在扩大攻击面

遗憾的是,威胁行为者已经注意到 MCP 的广泛应用。 仅在 2025 年 6 月,就披露了多个针对 MCP 实施的关键漏洞: 

MCP 服务器正迅速成为您安全体系中的新攻击点,因此您应立即部署防护措施。 Glama MCP 服务器目录显示,当前已有超过 7,000 台 MCP 服务器投入生产,这体现了 MCP 作为 AI 代理集成基础协议的快速崛起。

AI 代理无法辨别何时受到攻击,因为它们分不清有益的请求与恶意提示——这使它们天生易受攻击。 这正是 F5 Web 应用防火墙(WAF)解决方案 发挥作用的时候,它是 F5 应用交付与安全平台 的关键组成部分。

F5 推出新功能,保护由 MCP 授权的代理

十多年来,F5 始终保护 Web 应用免受注入、XSS、SSRF、访问控制失效和远程代码执行(RCE)等漏洞和攻击。 我们现在帮助您无需重构堆栈即可保护基于 MCP 的 AI 代理。 我们通过将 MCP 远程库与 F5 WAF 无缝集成,构建了一个透明全代理层,使 AI 代理正常运行的同时得到全面保护。 无论是保护本地 AI 工作负载,还是在云端部署代理,F5 WAF 与任何大型语言模型(LLM)及任何环境兼容。

攻击面正以超过大多数安全团队可绘制速度的速度快速扩大。 但传统的应用安全工具无法应对 AI 代理如何检索、传递或处理非结构化输入。 如果你在 SecOps 部门,一定见识过新技术快速到来,同时攻击和数据泄露也接踵而至的情况。 MCP 正在成为推动代理生态系统的关键纽带。 F5 WAF 确保这条纽带不会成为系统的薄弱环节。 

领先提供 MCP 保护

尽管71%的组织已将人工智能纳入安全策略,但根据我们的《2025年人工智能应用战略报告》,只有31%实施了专门针对人工智能的保护措施,如防火墙。 这意味着大多数企业在新兴的攻击面,特别是MCP服务器上暴露于新型威胁。

MCP 正成为 AI 代理与它们交互的工具、API 及服务之间的标准通信协议,无论是提取文件、启动工作流程还是查询内部系统。 作为集成层,它同样需要像 API 或服务层一样严格的安全审查。 F5 率先提供 MCP 保护,帮助客户自信推动创新。

我们很快将在 F5 的 GitHub 仓库发布相关代码,助您将 MCP 防护集成到 AI 工作流程中,立即守护 MCP 服务器安全。

如果您下周会参加Black Hat USA,欢迎到F5 5239号展位观看我们的演示。