博客

人工智能工厂的 API 保护: 迈向人工智能安全的第一步

拜伦·麦克诺特缩略图
拜伦·麦克诺特
2024 年 12 月 19 日发布

有一句古老的谚语与人工智能非常相关:“千里之行,始于足下”。

人工智能应用和生态系统正在席卷全球,要求每个组织评估其准备情况。 在 F5,我们看到两种类型的组织正在进行 AI 之旅:通过战略投资(如自动驾驶汽车或大型语言模型 (LLM))开发差异化解决方案的组织,以及为提高效率和组织创新而部署和优化 AI 的企业。 企业领导者渴望部署生成性人工智能功能和应用程序以提高生产力,而安全和风险管理领导者则争先恐后地确保治理以安全采用新兴人工智能应用程序以及蓬勃发展的基础设施、工具、模型、框架和相关服务的生态系统,以交付、优化和保护它们。 人工智能工厂正在成为实现人工智能差异化产品和服务的蓝图。

那么,人工智能是炒作吗? 疯狂吗? 一场革命? 还是世界末日? 未来仍有待观察。 

如果你退一步来看全局,就会发现一件事变得清晰——AI 应用程序的连接组织是 API。 事实上,我们与全球客户讨论的一个共同主题是“人工智能的世界就是 API 的世界”。 API是我们用来训练AI模型和使用这些模型的接口。 它们也是不良行为者用来窃取模型数据、试图越狱和滥用 AI 模型,甚至逆转和窃取模型本身的相同接口。 正如防御者忽视了云中 API 可见性和安全性的重要性以及向基于微服务的现代应用程序的转变一样,他们突然意识到,如果不保护为 AI 模型提供服务的接口,我们就无法保护 AI 模型的安全。

鉴于 API 在构建和交付 AI 驱动应用中发挥的核心作用,在早期阶段将 API 可见性、安全性和治理设计到 AI 开发和培训过程中至关重要。  在设计阶段建立正常使用模式和控制(例如速率限制和数据清洗)也至关重要。 通过这种方法,安全采用人工智能就变得不再那么困难。 API 安全对于保护 AI应用至关重要,因为生成 AI 应用程序尤其依赖于 API。 从此,AI之旅的第一步就此开始。 以下是为什么 AI 安全和 AI 工厂的安全采用需要 API 安全的四个关键断言。

断言 #1: 人工智能应用是现代应用中最现代的应用

在我们之前的 AI 工厂系列中,我们将 AI 工厂定义为满足大容量、高性能训练和推理要求的大规模存储、网络和计算投资。 与传统制造工厂一样,人工智能工厂利用预先训练的人工智能模型将原始数据转化为情报。 人工智能应用程序只是现代应用程序中最现代的,通过 API 紧密连接并且高度分布。

我们首先假设人工智能应用程序是一种现代应用程序,面临着交付、安全和运营方面同样熟悉的挑战,并且人工智能模型将从根本上增加需要交付和安全的 API 数量。 

那么,任务完成了! 我们明白了,对吧? 我们知道如何安全地交付现代应用程序。 我们拥有完善的应用安全最佳实践,并且了解保护 API 的复杂性。 我们拥有可在分布式环境中提供全面保护和一致安全性的解决方案

别那么快! 当我们简要介绍细节时,请保留您的 GPT。

虽然人工智能应用与现代应用(本质上都是基于 API 的系统)具有相同的风险和挑战,但人工智能应用具有特定的含义——训练、微调、推理、检索增强生成 (RAG) 和插入人工智能工厂的点。

因此,是的,人工智能应用程序与现代应用程序一样,具有高度分布式的特性,会造成工具泛滥,并使保持一致的可见性、统一的安全策略实施以及在混合和多云架构中普遍补救威胁的努力变得复杂。 除了应对这种充满风险和复杂性的“火球”之外,防御者还必须应对人类请求的随机性和人工智能获取内容的高度可变性,这些特性可能导致人工智能做出不可预测的响应,同时还需要考虑数据规范化、标记化、嵌入和填充矢量数据库。

数据整合到 AI 工厂可以创建一个整体且互联的企业生态系统,而所有这些活动部件之间的集成和接口需要强大的 API 安全态势。

火球图

当今的企业正在日益复杂的混合多云环境中管理大量应用程序和 API。 在 F5,我们将日益增加的风险和复杂性称为“火球”。

断言 #2: AI 应用通过 API 相互连接

由于快速的现代化努力,基于 API 的系统的兴起导致了跨数据中心、公共云和边缘的架构的激增。 F5 的年度研究(包括我们的2024 年应用策略现状报告)对此进行了记录: API 安全 | API 的秘密生活报告。

人工智能应用加剧了混合和多云架构的复杂性。 组织正在快速评估并认真采用一系列 AI 应用程序和底层 AI 模型的治理策略,最终决定采用 AI-SaaS、云托管、自托管或边缘托管 方法,有时基于用例和每个应用程序。 例如,一些用例涉及生产之前在数据中心进行训练,即在边缘执行推理。

这些模型和相关服务的连接主要通过 API 实现。 例如:连接到流行的推理服务。 人工智能应用带来 API 使用量的指数级增长,因为单个 API 最终可能有数千个端点,并且 API 调用可能深埋在业务逻辑中,超出了安全团队的职权范围。 这导致了难以忍受的复杂性并对风险管理产生严重影响。

事实证明,不是云吞噬了世界,而是 API 吞噬了世界。 人工智能将会吞噬一切。 正如我们的博客文章《混合多云成为企业新常态的六个原因》中所述,高度分布式的环境为部署 AI 应用程序和相关服务提供了灵活性,从而确保了性能、安全性、效率和准确性。 这对于数据重力问题尤其重要。 毫不奇怪,80% 的组织在公共云中运行 AI 应用程序,54% 的组织在本地运行 AI 应用程序。 无论采用何种方法,架构的每个方面都必须得到保护,而保护 API 是第一步。 

断言 #3: 人工智能应用面临已知和新风险

保护作为 AI应用功能和数据交换门户的 API 免受安全风险至关重要。 虽然存在相同的漏洞利用、业务逻辑攻击、机器人滥用和拒绝服务 (DoS) 风险,但还需要考虑 AI 工厂内新的和修改的插入点,以及通过自然语言处理 (NLP) 接口、插件、数据连接器和下游服务(在训练、微调、推理和 RAG 期间)对 LLM 的风险。 此外,像 DoS 这样的已知攻击还有其他考虑因素;针对容量密集型 DDoS 和 L7应用DoS 的缓解措施并不能完全抵消模型DoS 的风险。 人工智能应用程序也存在可解释性悖论,强调了可追溯性对于帮助抵消幻觉、偏见和虚假信息的重要性。

而攻击者也并未袖手旁观。 生成式人工智能使攻击民主化,并提高了网络犯罪分子和民族国家活动的复杂性。 LLM 代理现在可以自主破解 Web 应用程序和 API——例如,执行盲数据库模式提取和 SQL 注入等复杂任务,而无需事先知道漏洞。

虽然新型人工智能风险正在引发大量关注,但 API 安全对于人工智能工厂的重要性怎么强调也不为过。 这很紧急。 人工智能应用程序的 API 范围的扩大令人震惊。 每个 CISO 都需要将 API 安全性作为 AI 治理计划的一部分,因为任何CISO 生存指南的核心口号都应该是“你无法保护你看不到的东西”。 如果您没有 AI 应用程序背后接口的清单,那么您的威胁模型就不完整,并且您的安全态势存在漏洞。

断言 #4: 防守者必须适应

人工智能应用是动态的、多变的、不可预测的。 安全采用人工智能应用程序需要更加重视功效、强大的策略制定和自动化操作。 检查技术将在安全领域发挥关键且不断发展的作用。

特别是对于人工智能应用程序和生态系统中的 API 安全,除了目前基本到位的入站安全控制之外,组织还需要通过为出站 API 调用和相关用例构建安全性来抵消第三方 API 不安全使用的可能性增加。 鉴于服务间和东西向流量的增加(例如来自 RAG 工作流程),机器人管理解决方案不能仅仅依靠“人”或“机器”识别。 由于 LLM应用的供应链可能存在漏洞,并影响训练数据、模型和部署平台(通常来自第三方,可通过篡改或毒害攻击进行操纵)的完整性,因此需要在数据中心、云端、边缘、从代码、测试到生产等各个环节实施安全控制。  

AI 网关技术将在帮助安全和风险团队减轻 LLM 风险(例如提示注入和敏感信息泄露)方面发挥关键作用,但 AI 安全之旅的第一步是保护连接 AI 应用程序和 AI 生态系统的 API,通过在整个 AI 应用程序生命周期中确保安全性。

AI 参考架构中的 API 安全性

从保护前端应用和推理服务 API 之间的交互,到检查用户与 AI-SaaS 应用程序的交互,再到保护插件、数据连接器和下游服务之间的连接——AI 应用程序和 AI 工厂的安全采用取决于 API 安全。

F5 平台提供持续的 API 防御和一致的安全态势,并通过为安全和风险团队提供安全构建 AI 工厂所需的功能,使企业领导者能够满怀信心地进行创新。

F5 AI 参考架构

F5 对 AI 的关注不止于此——探索F5 如何随时随地保护和交付 AI 应用