过去十年里,NGINX 开源一直是全球应用最广泛的Web 服务器之一,同时也是市场份额领先的应用交付解决方案。 我们助力从初创企业和学术研究项目,到全球最大的网站应用,实现负载均衡和反向代理。
正如它已成为应用交付的默认选择,NGINX 也已默默成为训练和服务 AI 应用的关键枢纽。 领先的 AI 框架、工具包、库和平台—如 Intel OpenVINO Model Server、NVIDIA Morpheus、Meta 的 vLLM、NVIDIA Triton 等—均内置对F5 NGINX Plus(及 NGINX 开源版)的原生支持,能够开箱即用地处理 gRPC/HTTP 代理、SSL/TLS 终止、支持健康检查的负载均衡和动态重新配置。 许多运行在 Kubernetes 集群上的 AI 服务和解决方案,将F5 NGINX Ingress Controller 列为管理 AI 集群内外流量的首选方案,无论是在模型训练还是推理阶段。 深入了解你会发现,它几乎无处不在地支持着各类 AI 运行。
在各种 AI 解决方案中,NGINX 是 AI 体系中的核心推进者。 无论您是在微调基础模型、流式传输 LLM 的令牌输出,还是将请求路由到实时异常检测端点,NGINX 很可能已经承担了关键的数据路径。
NGINX 是众多领先 AIOps 平台、工具和托管服务的首选入口之一。
人工智能框架 | NGINX 的应用方式 |
实际收益 |
---|---|---|
Intel OpenVINO 模型服务 | F5 和英特尔展示如何在 NGINX Plus 后端部署模型分片 (YouTube) | 一个网关可以连接CPU、GPU或VPU后端。 |
NVIDIA Triton | Helm chart 安装 Triton和NGINX Plus Ingress 以实现 gRPC 访问( GitHub ) | HTTP/2 多路复用确保 GPU 持续高效运行。 |
NVIDIA Morpheus | 《我是如何做到的》指南讲解如何通过 NGINX Plus Ingress 来保护 Morpheus(F5 社区) | 在实时安全推理之前,实现 TLS 卸载和自适应 WAF 防护。 |
NVIDIA(XLIO) | NGINX 在 NVIDIA Accelerated IO(XLIO)上的部署指南 (docs.nvidia.com) | 我们提升了 TLS 卸载和性能调优,提供了带有 OpenSSL 支持的构建说明和示例文件。 |
Meta vLLM | 官方文档讲解通过 NGINX 对多个 vLLM 实例进行负载均衡 | 实现文本生成端点的快速水平扩展。 |
MLOps 团队选择 NGINX 产品,正如管理微服务和 API(AI 部署的关键组成)团队所做的那样。它轻巧、模块化、易于移植,并能应对各种环境中的大量令牌处理需求。 AI 开发人员和机器学习工程师可将 NGINX 作为构建常用 AI 方案的一环,采用平台或 MLOps 团队配置的容器映像来部署。 NGINX 支持大多数主流平台和处理器架构的硬件加速,有效提升性能。
将 NGINX 作为默认选项的 AI 组件涵盖了全面的 AI 基础设施,从底层的 GPU 调度到高层的模型服务、部署编排及企业级治理。 它们清晰展示了 NGINX 如何支持多样化场景:安全地将流量引导至推理端点,保障模型交付的可扩展性与效率,管理多租户集群访问,并严格执行关于版本控制、审计和合规的运营政策。
这些平台和工具覆盖了整个 AI 基础架构的全链条——从基础的 GPU 调度到高级模型服务、部署编排以及企业级治理。 它们展示了 NGINX 如何支持多样化应用场景:安全地将流量路由到推理端点,实现模型的高效且可扩展交付,管理多租户集群访问,确保版本控制、审计和合规性等运营策略的严格执行。 清单还在持续扩大,我们期待看到下一代 AI 原生企业借助 NGINX 创造出的精彩成果。
借助F5 NGINX One,助您轻松扩展 AI 应用。