随着越来越多的组织投入人工智能开发,他们越来越依赖API将AI模型与应用和数据连接,用于训练与推理。 然而,API连接越多,面临的风险也越大。 攻击者可能滥用API,窃取数据、绕过AI模型限制,甚至盗取模型本身。
单个 AI应用可能拥有数百个 API 端点,安全团队很难追踪,而且配置只会变得更加复杂。 据 Gartner 预测,到 2026 年,API 需求增长的 30% 以上将来自人工智能和使用大型语言模型 (LLM) 的工具。1
别忽视 AI 所用 API 的安全基础设施。您需要更加谨慎,确保这些 API 能有效抵御高级攻击,同时处理好监管和身份认证的特殊需求,保护您的 AI 资产安全。
如果缺乏 API 安全,您的 AI 模型将面临诸多威胁,比如提示注入、模型提取,甚至无法掌控的影子 API,这些 API 超出您的视野和控制范畴。 影子 API 多因团队成员善意创建新 API 端点但缺乏适当安全监管而产生,导致盲区,使您难以追踪谁或什么在访问特定的 AI 模型。
您还需注意,缺乏适当保护的API端点可能在交互中泄露个人身份信息(PII)或知识产权,导致看似无害的请求暴露更多信息。 如果API没有限流措施,海量请求可能使其不堪重负,容易受到拒绝服务(DoS)攻击,进而造成服务性能下降和计算成本提升。
保护您的 AI 模型和应用程序需要全面的 API 安全策略,涵盖发现、认证以及针对 AI 专属威胁升级的风险。 您应当重点关注以下功能:
成功的人工智能离不开开发与安全的双重保障。 您可以通过 Amazon Bedrock、Amazon SageMaker 和 Amazon CodeWhisperer 等服务,利用热门基础模型,或借助 AI 驱动的开发构建和扩展自己的模型。 F5 提供一整套解决方案,补充这些 AWS 服务,助您实现关键 API 的安全控制,并整合上一节介绍的五大能力。
您首先要考虑的解决方案是F5 分布式云 API 安全,它能自动识别并映射新出现的 API 端点,即使这些端点是通过影子 IT 创建的。 这让您能获得更全面的可视化,轻松执行安全策略,保护 API 免受滥用、数据泄露和未授权访问。
接下来,适用于 AWS WAF 的 F5 托管规则 是一套在 AWS Marketplace 上提供的预配置规则集,专为与 AWS WAF 无缝集成而设计。 这些针对 API 的规则集为您增加一道防线,F5 安全专家会持续更新,确保防护紧跟最新威胁。
我们通过这两种方案防止模型被未授权访问,保护您的敏感数据和知识产权,确保人工智能始终可为人类或机器实体的合法使用提供支持。
在您的 AI 项目中,AWS 搭建基础,F5 保驾护航您的安全。 F5 解决方案与 CI/CD 流水线无缝集成,助力您的团队快速推进,同时确保应有的安全防护。 让您无需担心提示注入、模型操控等威胁,更无须担心 AI 可能泄露敏感数据的风险。
这些解决方案在 AWS 云上易于部署,能提升您对基础设施的可见性,帮助您在暗中运行的 IT 活动失控之前及时应对。 AWS 与 F5 携手帮助您驾驭人工智能日益增长的复杂性,让您能够整合所有关键数据源和 API,推动成功。
了解更多,尽在Amazon Web Services (AWS)上的F5。
您也可以阅读我之前的博客文章,在 AWS 上构建快速且安全的 AI 训练数据管道。
GARTNER 是 Gartner, Inc. 和/或其附属公司在美国和国际上的注册商标和服务标志,在此使用时已获得许可。保留所有权利。
1Gartner,《Gartner 预测,到 2026 年,超过 30% 的 API 需求增长将来源于人工智能及基于大型语言模型的工具》,2024 年 3 月 20 日