在 NVIDIA BlueField-3 DPU 上部署的 BIG-IP Next for Kubernetes

为大规模AI基础设施提供高性能的流量管理和安全性,为AI应用带来更高的效率、控制力和性能。

提供多租户、加速和可观察性

BIG-IP Next for Kubernetes 在 NVIDIA BlueField-3 DPU 上本地运行。 这为企业和服务提供商提供了单一控制点,以最大限度地提高 AI 云基础设施的利用率,并加速数据提取、模型训练、推理、RAG 和代理 AI 的 AI 流量。

最大限度提高效率并降低成本

为 AI 云提供商提供多租户支持

为 AI应用实现基于 Kubernetes 的安全多租户和网络隔离,让多个租户和工作负载高效共享单个 AI 基础架构,甚至深入到服务器级别。

DPU 驱动的零信任安全

集成关键安全功能和零信任架构,包括边缘防火墙、DDoS 缓解、API 保护、入侵防御、加密和证书管理,同时将这些功能卸载、加速和隔离到 DPU 上。

单点控制

扩展 GPUaas

扩展 GPUaaS

多租户架构为 AI 工厂和云数据中心提供强大的 AI 工作负载能力,使组织能够在共享计算集群上支持更多用户,同时扩展 AI 训练和推理工作负载。 通过利用先进的 Kubernetes 功能实现 AI 工作负载自动化和集中策略控制,加速 AI 模型与不同位置的数据存储的连接,同时显著增强应用程序性能的可见性。

云原生基础设施核心边缘

优化南北流量

获得网络、流量管理和安全的综合视图该解决方案满足 AI 工作负载日益增长的需求,专为 Kubernetes 环境而构建。 它提高了南北流量的效率,并为组织提供了推理和代理 AI 等 AI 用例的网络、流量管理和安全性的综合视图。

大规模部署 NVIDIA 加速计算

最大化投资价值

性能、效率和安全性是组织在其 AI 工厂和云数据中心部署大规模 GPU 集群的成功的关键。 BIG-IP Next for Kubernetes 利用 NVIDIA BlueField-3 DPU 平台,为创收应用释放宝贵的 CPU 周期。 部署在 NVIDIA BlueField-3 DPU(B3220 和 B3240 版本)上的 BIG-IP Next for Kubernetes 优化了数据移动并提高了 GPU 利用率,同时优化了能耗。

核心功能

BIG-IP Next for Kubernetes 为 AI 工厂提供高性能网络、高级安全性和简化的操作,实现无缝扩展、Kubernetes 集成和实时流量可见性,以优化 AI 工作负载。

提高 AI 工作负载的数据吞吐量和 GPU 利用率。

安全多租户

为多个租户实现安全、隔离的环境。

使用高级安全功能保护 AI 工作负载。

通过单点控制简化操作。

为要求苛刻的 AI 任务提供超快的连接。

随着 AI 工作负载的增长,轻松扩展基础设施。

与 Kubernetes 原生工作流无缝集成。

实时了解网络流量和性能。

资源

使用 F5 安排会议

大规模部署云原生应用程序? 了解 F5 和 NVIDIA 如何帮助您实现 AI 和其他现代应用的更高效率、性能和安全性。

提交后,F5 业务发展代表将与您联系并安排时间。

F5 业务发展代表将很快与您联系。