过去几个月,F5 对 AI 工厂进行了深入探讨。 在本系列文章的开始,我们将 AI 工厂定义为满足大容量、高性能训练和推理要求的大规模存储、网络和计算投资。 从根本上来说,人工智能工厂就是人工智能模型和服务的创建、改进和部署方式的类比。 就像传统制造工厂将材料转化为成品一样,人工智能工厂构建人工智能applications。
在这篇博客文章中,我们将描述 AI应用和现代应用之间的异同,重点介绍交付和安全需求,并在F5 AI 参考架构的背景下讨论这些现代 AI应用s。
在对灵活性、可扩展性和增强用户体验的需求的推动下,现代应用s经历了重大的变革。 云计算的出现标志着这一演变的一个转折点,为能够有效扩展和跨多种环境无缝运行的高度分布式系统奠定了基础。 应用现代化是向基于 API 的系统的演变,它推动架构向混合和多云方向发展。
AI应用s进一步增强了对 API 的依赖,并确立了混合云和多云作为新常态。 容器化技术通过为软件提供一致且隔离的环境(无论底层基础设施如何),进一步彻底改变了应用部署。 这些进步不仅对传统的现代应用s至关重要,而且也是人工智能工厂的支柱。 云计算和容器化提供的灵活性对于管理训练和部署 AI 模型的密集计算需求至关重要。
Kubernetes 等编排工具对于大规模管理容器化applications至关重要。 Kubernetes 自动化了这些applications的部署、扩展和管理。 在 AI 工作流中,Kubernetes 协调跨多个系统的 AI 工作负载部署,高效分配资源并实现 AI 模型的无缝扩展。
此过程的一个关键方面是 MLOps,它解决了开发、训练和操作 AI 模型的独特挑战。 MLOps 支持持续集成和交付 (CI/CD),确保 AI 模型得到持续测试、更新和部署。 此外,微服务架构的采用将单片系统分解为更小的、可独立部署的服务,从而改变了现代应用开发。 这种方法加速了 CI/CD,从而实现了更快、更可靠的软件更新。
安全性一直是现代应用s发展的基石。 随着复杂的网络威胁的增加,现代应用s已经集成了先进的安全措施,例如 Web应用防火墙 (WAF)、分布式拒绝服务 (DDoS) 保护和 API 安全。 区分针对网络层和传输层的 3/4 层 DDoS 攻击与针对应用层的 7 层 DoS 攻击至关重要。
随着人工智能的进步,威胁模型也在不断发展,尤其是通过自然语言处理 (NLP) 接口访问的大型语言模型 (LLM)。 LLM 面临的风险包括 OWASP Top 10 中所强调的 LLMapplications漏洞,例如提示注入攻击和数据提取威胁,以及针对特定模型的 DoS 攻击。 这些安全进步确保人工智能applications保持弹性和安全性,并抵御不断演变的威胁,保持人工智能驱动解决方案的完整性和可靠性。
如果您一直在关注我们的 AI 工厂系列文章,您就会知道我们探讨过API 安全、网络分段、流量管理、检索增强生成 (RAG)和数据处理单元 (DPU)等主题。 让我们退一步来讨论一下 AI 工厂如何融入 F5 AI 参考架构,AI 工厂如何生产 AIapplications,以及交付和保护它们的要求。
F5 凭借近三十年帮助客户提供高性能applications的经验,开发了 AI 参考架构,其中包括七个构建块(推理、RAG、RAG 语料库管理、微调、训练、外部服务集成和开发)和四种部署类型(AI-SaaS、云托管、自托管和边缘托管)。 有关这些内容的更多信息,请访问我们的博客“定义 AI 工厂” 。 由于人工智能applications是现代applications中最现代化的,通过 API 连接且分布极为广泛,因此该参考架构解决了交付人工智能applications所必需的性能、操作和安全挑战。
人工智能工厂最常见的两个构建模块是训练和推理;然而,每个构建模块都是构建功能齐全的人工智能应用所必需的。 一些组织可能会建立一个人工智能工厂来处理训练或推理所需的功能。 其他人可能依赖第三方来使用模型训练服务或提供推理基础设施。
核心的 AI应用s是分布式的,可能运行在分布式 Kubernetes 容器平台上。 这就是现代应用的定义,也是我们所说的“人工智能应用只是现代应用s中最现代的”这一短语的由来。 但这对于建设人工智能工厂的企业意味着什么? AI应用s需要与当今的现代应用s相同的交付和安全服务,例如 Kubernetes 入口、多租户出口、基于 DNS 的流量管理、弹性和可观察性。 安全方面,需要DDoS防护、Web应用和API防护、以及优化技术。
虽然我们关注人工智能和现代应用s所共有的交付和安全特性,而不是仅仅关注人工智能特有的安全问题,这可能看起来令人惊讶,但这种方法是有意为之。 人工智能应用s确实带来了独特的风险,但人们往往忽视应用安全和交付的基础知识,而青睐新的创新功能。 通过首先解决共享安全和交付需求(我们称之为唾手可得的成果),组织可以利用其在应用程序安全方面的现有专业知识立即做出改进。 尽管 AI应用s可能涉及新组件,但它们仍然严重依赖于 Web 和 API 交互,这完全在当前 NetOps 和 SecOps 团队的能力范围内。 通过从经过验证的安全和交付策略开始,团队可以构建坚实的基础并逐步应对人工智能应用s带来的独特挑战。
F5 AI 参考架构亮点 不仅包括人工智能工厂的产出,还包括使人工智能应用成功实现组织的业务目标所面临的挑战和风险。 为此,我们决定使用一对互补的风险和挑战前 10 名列表: LLM应用s的 OWASP 前 10 名和F5应用交付前 10 名。 我们已经映射了每个组件和构建块的互连,并概述了适用的 OWASP LLM Top 10 和 F5应用交付 Top 10 的应用范围。 在以下案例中,请参见 AI 推理的示例。
F5 AI 参考架构重点突出了推理构建块,并叠加了 F5application交付 Top 10 和 OWASP LLM Top 10。
F5 是应用交付和安全领域的领导者。 F5 BIG-IP等解决方案提供基本服务,包括负载平衡、流量管理和安全。 这些在传统应用s中常见的功能对于人工智能应用s提供最高水平的可靠性、性能和保护同样重要。
对于建设AI工厂的企业来说,所依赖的F5在应用交付和安全方面的能力正是AI工厂所需的能力。 F5 BIG-IP 本地流量管理器与 F5 rSeries和VELOS专用硬件相结合,可实现用于训练和微调的高性能数据摄取,并保护 AI应用s免受最严苛的安全威胁。 F5 分布式云服务支持安全的多云网络和 Web应用及 API 保护。 此外,最近宣布,部署在 NVIDIA BlueField-3 DPU 上的 F5 BIG-IP Next for Kubernetes将大规模 AI 基础设施的流量管理和安全性从 CPU 卸载到 DPU,从而为 AI应用s带来更高的效率、控制力和性能。
要了解有关 F5 如何保护和扩展 AI 工厂的更多信息,请立即联系您的 F5 客户团队。 F5 对 AI 的关注不止于此——探索F5 如何随时随地保护和交付 AIapplications。
有兴趣了解更多有关 AI 工厂的信息吗? 探索我们的 AI 工厂博客系列中的其他内容: