博客

用 API 安全保障您在 AWS 上的 AI 创新

Dave Morrissey 缩略图
戴夫·莫里西
发布日期:2025年8月21日

随着越来越多的组织投入人工智能开发,他们越来越依赖API将AI模型与应用和数据连接,用于训练与推理。 然而,API连接越多,面临的风险也越大。 攻击者可能滥用API,窃取数据、绕过AI模型限制,甚至盗取模型本身。 

单个 AI应用可能拥有数百个 API 端点,安全团队很难追踪,而且配置只会变得更加复杂。 据 Gartner 预测,到 2026 年,API 需求增长的 30% 以上将来自人工智能和使用大型语言模型 (LLM) 的工具。1

别忽视 AI 所用 API 的安全基础设施。您需要更加谨慎,确保这些 API 能有效抵御高级攻击,同时处理好监管和身份认证的特殊需求,保护您的 AI 资产安全。

为什么您必须强化API安全

如果缺乏 API 安全,您的 AI 模型将面临诸多威胁,比如提示注入、模型提取,甚至无法掌控的影子 API,这些 API 超出您的视野和控制范畴。 影子 API 多因团队成员善意创建新 API 端点但缺乏适当安全监管而产生,导致盲区,使您难以追踪谁或什么在访问特定的 AI 模型。 

您还需注意,缺乏适当保护的API端点可能在交互中泄露个人身份信息(PII)或知识产权,导致看似无害的请求暴露更多信息。 如果API没有限流措施,海量请求可能使其不堪重负,容易受到拒绝服务(DoS)攻击,进而造成服务性能下降和计算成本提升。 

API 安全的五大关键要素

保护您的 AI 模型和应用程序需要全面的 API 安全策略,涵盖发现、认证以及针对 AI 专属威胁升级的风险。 您应当重点关注以下功能:

  • 持续发现实时监控连接AI服务的新API端点,实现全天候可视。 
  • 访问控制确保新API端点经过正规认证流程,并严格遵循最小权限原则,仅授予所需的最低访问权限。
  • 输入/输出验证对所有进出 AI 模型的数据进行检测,防止恶意提示进入或敏感数据外泄。
  • 速率限制确保 API 调用不超过设定阈值,有效防止系统因分布式拒绝服务攻击等原因过载。
  • 异常检测和所有监控软件一样,负责识别常规流量中的异常行为。

如何在 AWS 上实现全面 AI 防护

成功的人工智能离不开开发与安全的双重保障。 您可以通过 Amazon Bedrock、Amazon SageMaker 和 Amazon CodeWhisperer 等服务,利用热门基础模型,或借助 AI 驱动的开发构建和扩展自己的模型。 F5 提供一整套解决方案,补充这些 AWS 服务,助您实现关键 API 的安全控制,并整合上一节介绍的五大能力。 

您首先要考虑的解决方案是F5 分布式云 API 安全,它能自动识别并映射新出现的 API 端点,即使这些端点是通过影子 IT 创建的。 这让您能获得更全面的可视化,轻松执行安全策略,保护 API 免受滥用、数据泄露和未授权访问。

接下来,适用于 AWS WAF 的 F5 托管规则 是一套在 AWS Marketplace 上提供的预配置规则集,专为与 AWS WAF 无缝集成而设计。 这些针对 API 的规则集为您增加一道防线,F5 安全专家会持续更新,确保防护紧跟最新威胁。 

我们通过这两种方案防止模型被未授权访问,保护您的敏感数据和知识产权,确保人工智能始终可为人类或机器实体的合法使用提供支持。

更快创新,掌握更高信心与控制力

在您的 AI 项目中,AWS 搭建基础,F5 保驾护航您的安全。 F5 解决方案与 CI/CD 流水线无缝集成,助力您的团队快速推进,同时确保应有的安全防护。 让您无需担心提示注入、模型操控等威胁,更无须担心 AI 可能泄露敏感数据的风险。 

这些解决方案在 AWS 云上易于部署,能提升您对基础设施的可见性,帮助您在暗中运行的 IT 活动失控之前及时应对。 AWS 与 F5 携手帮助您驾驭人工智能日益增长的复杂性,让您能够整合所有关键数据源和 API,推动成功。

了解更多,尽在Amazon Web Services (AWS)上的F5

您也可以阅读我之前的博客文章,在 AWS 上构建快速且安全的 AI 训练数据管道

GARTNER 是 Gartner, Inc. 和/或其附属公司在美国和国际上的注册商标和服务标志,在此使用时已获得许可。保留所有权利。

1Gartner,《Gartner 预测,到 2026 年,超过 30% 的 API 需求增长将来源于人工智能及基于大型语言模型的工具》,2024 年 3 月 20 日