博客

宣布 F5 BIG-IP Next for Kubernetes 在 NVIDIA BlueField-3 DPU 上全面上市

Ahmed Guetari 缩略图
艾哈迈德·盖塔里
发布于2025年4月25日

今天,F5 宣布全面推出部署在 NVIDIA BlueField-3 DPU 上的 F5 BIG-IP Next for Kubernetes ,增强AI 工厂云数据中心资源管理,同时实现最佳 AIapplication性能。 该集成解决方案提高了基础设施效率,并提供高性能网络、安全和流量管理,以支持创新用例,包括 GPU 即服务 (GPUaaS) 和推理功能。

将 BIG-IP Next for Kubernetes 与 NVIDIA BlueField-3 DPU 相集成,解决了组织在实施云规模 AI 基础设施时面临的紧迫挑战。 大规模人工智能工作负载涉及海量数据处理,需要高性能计算资源来实时分析、解释和提取见解。 这给传统网络基础设施带来了相当大的压力,抑制了性能并导致处理效率低下和推理延迟的风险。

在行业定义环境中表现出色

F5、NVIDIA 和 SoftBank 最近在NVIDIA GTC 2025上合作举办了一场峰会,展示了组合解决方案的价值。 在会议期间,软银分享了关于组织如何利用 Kubernetes 的 DPU 加速服务代理来增强云原生 AI 工作负载的改变游戏规则的见解。 会议重点介绍了软银最近在 NVIDIA BlueField-3 DPU 上部署的 F5 BIG-IP Next for Kubernetes 概念验证的计算和性能指标。 SoftBank 的 HTTP 吞吐量提高了 18%(77 Gbps),首字节传输时间 (TTFB) 提高了 11 倍,网络能效提高了 190 倍。 这些结果凸显了 DPU 加速对现代云原生环境的变革潜力,推动了令牌吞吐量的提高和 AI 推理期间用户体验的增强。

降低复杂性,优化性能,增强安全性

NVIDIA BlueField-3 DPU专为最苛刻的基础设施工作负载而设计,从加速 AI 和 5G 无线网络到混合云和高性能计算。 该组合解决方案利用F5application交付和安全平台来加速、保护和简化进出 AI 基础设施的数据流量,从而大大提高大规模 AI 工作负载的高效处理能力。 通过提供优化的流量管理,该解决方案能够在 AI 推理期间实现更高的数据提取性能和服务器利用率,从而为 AI 应用用户带来更好的体验。

BIG-IP Next for Kubernetes 通过统一网络、安全、流量管理和负载均衡功能,显著简化了集成企业 AI 基础设施多个元素的复杂性,从而在多云环境中提供全面的可视性,并提高对 AI 工作负载的可观察性。 该解决方案支持零信任架构、API 保护、入侵防御、加密和证书管理的关键安全功能。 随着普遍可用性的提高,我们添加了硬件加速分布式拒绝服务 (DDoS) 缓解功能以及边缘防火墙功能,从而促进更快、更有效的网络保护。 该解决方案还可以自动发现和保护人工智能模型训练和推理端点,使组织能够将人工智能applications与目标威胁隔离,同时增强数据完整性和主权。

此外,BIG-IP Next for Kubernetes 与 NVIDIA BlueField-3 DPU 的集成实现了多租户架构,该架构可以在同一个 AI 集群上安全地托管多个用户,同时保持他们的 AI 工作负载、数据和流量分离。

引人注目的新用例,助力客户拥抱人工智能

F5 和 NVIDIA 携手合作,不仅改善了基础设施管理和效率,还实现了更快、响应更快的 AI 推理,从而实现了新兴用例,例如:

  • GPU 即服务 (GPUaaS)提供基于云的、按需访问 GPU 以执行各种计算任务,包括 AI 模型训练、科学模拟和渲染。 该服务允许组织以按需付费或订阅的方式从云提供商处租用 GPU 计算资源,仅在需要时支付 GPU 费用,并最大限度地提高每花费一美元可以获得的 GPU 计算量。 BIG-IP Next for Kubernetes 与 NVIDIA BlueField-3 DPU 的集成实现了具有细粒度租户隔离的安全多租户,这对于 GPUaaS 场景至关重要,因为它允许多个用户或组织在运行并发工作负载时安全高效地共享 GPU 资源。 通过将GPU服务拆分为多个安全实例,细粒度的多租户隔离不同的租户和工作负载,防止数据泄露和安全风险。 它还允许动态资源分配,确保每个工作负载都能获得必要的 GPU 和网络资源,而不会过度配置。
  • 推理服务,其中专门的基于云的 AI 平台提供优化的环境,以便有效地对训练有素的 AI 模型进行推理。 与提供原始 GPU 能力的 GPUaaS 不同,推理服务针对简化的模型部署进行了微调。 这些服务的例子包括操作聊天机器人、实施欺诈检测、进行研究以及执行类似的人工智能任务。 推理服务还用于优化图像识别和自动驾驶场景,以及语音助手或情感分析的自然语言处理。 BIG-IP Next for Kubernetes 和 NVIDIA BlueField-3 DPU 通过同时运行多个模型来最大限度地提高推理性能并减少端到端延迟。 基于 F5 和 NVIDIA 组合解决方案的推理服务还可以动态扩展资源以处理不断变化的工作负载和需求。

对于GPUaaS 和推理服务来说,细粒度的可观察性都是一项关键要求。 BIG-IP Next for Kubernetes 提供了一个集中且完全集成的视图,可在整个 AI 生态系统中提供丰富的可见性以监控性能和弹性,并能够立即应用安全功能来强制执行数据隐私、防止未授权访问并隔离异常。

如需了解更多信息,请浏览产品页面联系您的 F5 客户团队,讨论适用于您组织 AI 基础设施的 BIG-IP Next for Kubernetes。 F5 对 AI 的关注不止于此 - 探索F5 如何随时随地保护和交付 AI 应用