博客

什么是人工智能工厂?

亨特·斯密特缩略图
亨特·斯密特
2024 年 10 月 11 日发布

当 ChatGPT 于 2022 年 11 月发布时,我们提出的问题和输入的提示很简单: “给我讲一个关于 X 的故事”和“就主题 Z 写一篇人物 A 和人物 B 之间的叙述”。 通过这些问题以及当时与 GPT-3.5 的初步互动,我们试图确定这项新兴流行技术将如何影响我们的日常生活。 现在到了 2024 年末,人工智能将补充我们的生活:帮助我们调试和编写代码、编译和汇总数据、驾驶自动驾驶汽车等等。 这些都是现代人工智能工厂的产出,而我们才刚刚起步。

本文是人工智能工厂系列文章的第一篇,探讨了人工智能工厂的组成部分以及不同元素如何协同工作以大规模生成人工智能驱动的解决方案。

定义人工智能工厂

在人工智能的发展过程中,人工智能工厂的概念已经成为一种流行,用来比喻人工智能模型和服务的创建、完善和部署方式。 与将材料转化为成品的传统制造工厂非常相似,人工智能工厂是一项巨大的存储、网络和计算投资,可满足大容量、高性能的训练和推理要求。

在这些工厂中,服务器网络、图形处理单元 (GPU)、数据处理单元 (DPU) 和专用硬件协同工作,处理大量数据,执行复杂的算法,训练 AI 模型以实现高水平的准确性和效率。 这些基础设施经过精心设计,可以处理训练大规模模型和部署实时推理所需的巨大计算能力。 它们采用先进的存储解决方案来管理和检索海量数据集,确保无缝数据流。

负载平衡和网络优化可最大限度地提高性能和资源利用率,防止瓶颈并确保可扩展性。 这种硬件和软件组件的协调使人工智能工厂能够生产尖端的人工智能模型并不断改进它们,以适应新数据和不断变化的需求。 最终,人工智能工厂体现了人工智能开发的工业化,提供了支持下一代智能应用所需的强大基础设施。

人工智能工厂为何如此重要?

正如 NVIDIA 首席执行官黄仁勋在 Salesforce Dreamforce 2024 大会上所说,“历史上,计算机技术的发展速度从未超过摩尔定律”,他继续说道,“我们的发展速度远远超过了摩尔定律,甚至可以说轻松超越了摩尔定律的平方。”

由于人工智能投资是关键的市场差异化因素和运营效率的驱动因素,因此大规模部署人工智能变得越来越重要。 为了实现这一目标,组织需要不断构建和完善模型并整合知识库和实时数据。 人工智能工厂的概念强调人工智能应该是一项持续的投资,而不是一次性的努力。 它为组织提供了一个实施其人工智能计划的框架,使其更适应不断变化的业务和市场需求。

人工智能工厂的组成部分

F5 利用我们帮助客户大规模部署高性能、安全的现代应用群的专业知识,开发了 AI 参考架构框架。 鉴于人工智能应用是现代应用中最现代化的,通过 API 紧密连接且高度分布,该框架解决了交付尖端人工智能应用所必需的关键性能、安全性和运营挑战。

七个 AI 构建模块

在我们的参考架构中,我们定义了构建综合 AI 工厂所需的七个 AI 构建模块:

1. 推理

概述前端应用和推理服务 API 之间的交互;主要向 AI 模型发送请求并接收响应。 这为更复杂的互动奠定了基础。

推理

2. 检索增强生成

通过添加大型语言模型 (LLM) 编排和检索增强服务来增强基本推理。 它详细说明了从矢量数据库和内容存储库中检索额外上下文,然后用于生成富含上下文的响应。

检索增强图

3. RAG 语料库管理

专注于检索增强生成 (RAG) 推理所需的数据摄取过程。 它包括数据规范化、嵌入和填充矢量数据库,为 RAG 调用准备内容。

布图

4. 微调

旨在通过与模型的交互来增强现有模型的性能。 它无需从头开始重建模型即可调整模型,并强调使用 RAG 从推理和推理中收集数据以进行微调工作流程。

微调图

5. 训练

涉及从头开始构建一个新模型,尽管它可能使用以前的检查点(重新训练)。 它涵盖数据收集、预处理、模型选择、训练方法选择、训练和验证/测试。 这个迭代过程旨在创建针对特定任务的稳健模型。

训练图

6. 外部服务集成

将 LLM 编排层连接到数据库和网站等外部源。 它将外部数据集成到推理请求中,但不包括分块和嵌入等文档预处理任务。

外部服务图

7. 发展

涵盖开发、维护、配置、测试和部署 AI应用组件的工作流程。 它包括前端应用、LLM 编排、源代码控制管理和 CI/CD 管道。

发展

这些构建模块共同构成了人工智能工厂的骨干。 每个部分在人工智能输出的创建、部署和改进中都发挥着至关重要的作用。 此外,人工智能工厂计划倾向于拥有大多数构建模块的实施策略(而不是租赁或外包),从而从下面列出的部署模型中选择自托管

四种部署模式

对于每个构建模块,客户必须选择适当的部署模型和实施策略(自有、租赁或外包),定义实现其 AI 计划业务目标的最佳参考架构。 以下是前四名:

  • AI-SaaS涉及使用推理服务的软件即服务 (SaaS) 实现,其中服务提供商管理基础设施、模型更新和扩展。 用户通过 API 与服务交互,而无需担心底层维护。 这种部署模型非常适合寻求易用性和快速集成性且不需要大量开销的企业。 它还允许快速扩展并访问最新的功能和改进。
  • 云托管部署涉及使用云服务提供商 (CSP) 作为基础设施即服务 (IaaS) 或平台即服务 (PaaS) 来管理推理服务。 在这种模型中,用户负责管理服务,包括配置、扩展和维护,但可以受益于 CSP 强大的基础设施和工具。 该模型提供了灵活性和控制力,适合具有特定要求和技术专长的组织。 它还可以与其他云原生服务和工具无缝集成。
  • 自托管部署需要在自管理的私有数据中心或共置服务内管理推理服务。 该模型提供了最高级别的控制和定制,允许组织根据其特定需求定制基础设施和服务。 然而,它也需要大量资源进行维护、更新和扩展。 它通常被具有严格的安全性、合规性或性能要求的组织所选择,而基于云的解决方案无法满足这些要求。
  • 边缘托管部署涉及在边缘运行 AI 或机器学习 (ML) 服务,例如在零售亭、物联网设备或其他本地化环境中。 该模型通过靠近源头处理数据来减少延迟,使其成为实时应用和互联网连接有限或间歇性的场景的理想选择。 它需要强大的本地硬件和软件管理,但对于需要立即进行本地化决策的用例提供了显著的好处。 边缘托管部署在零售、制造和医疗保健等行业尤其有价值。

F5 可在任何地方交付和保护 AI应用

您日常所依赖的 F5应用交付和安全功能与精心设计的 AI 工厂所至关重要的功能相同。 F5 BIG-IP 本地流量管理器与 F5 rSeriesVELOS专用硬件配对,可实现 AI 训练的高性能数据摄取。 F5 分布式云网络连接用于安全的多云网络连接不同的数据位置,为RAG创建从专有数据到 AI 模型的安全管道。

F5 对 AI 的关注不止于此——探索F5 如何随时随地保护和交付 AI 应用