今天,F5 宣布全面推出部署在 NVIDIA BlueField-3 DPU 上的 F5 BIG-IP Next for Kubernetes ,增强AI 工厂云数据中心资源管理,同时实现最佳 AIapplication性能。 该集成解决方案提高了基础设施效率,并提供高性能网络、安全和流量管理,以支持创新用例,包括 GPU 即服务 (GPUaaS) 和推理功能。
将 BIG-IP Next for Kubernetes 与 NVIDIA BlueField-3 DPU 相集成,解决了组织在实施云规模 AI 基础设施时面临的紧迫挑战。 大规模人工智能工作负载涉及海量数据处理,需要高性能计算资源来实时分析、解释和提取见解。 这给传统网络基础设施带来了相当大的压力,抑制了性能并导致处理效率低下和推理延迟的风险。
F5、NVIDIA 和 SoftBank 最近在NVIDIA GTC 2025上合作举办了一场峰会,展示了组合解决方案的价值。 在会议期间,软银分享了关于组织如何利用 Kubernetes 的 DPU 加速服务代理来增强云原生 AI 工作负载的改变游戏规则的见解。 会议重点介绍了软银最近在 NVIDIA BlueField-3 DPU 上部署的 F5 BIG-IP Next for Kubernetes 概念验证的计算和性能指标。 SoftBank 的 HTTP 吞吐量提高了 18%(77 Gbps),首字节传输时间 (TTFB) 提高了 11 倍,网络能效提高了 190 倍。 这些结果凸显了 DPU 加速对现代云原生环境的变革潜力,推动了令牌吞吐量的提高和 AI 推理期间用户体验的增强。
NVIDIA BlueField-3 DPU专为最苛刻的基础设施工作负载而设计,从加速 AI 和 5G 无线网络到混合云和高性能计算。 该组合解决方案利用F5application交付和安全平台来加速、保护和简化进出 AI 基础设施的数据流量,从而大大提高大规模 AI 工作负载的高效处理能力。 通过提供优化的流量管理,该解决方案能够在 AI 推理期间实现更高的数据提取性能和服务器利用率,从而为 AI 应用用户带来更好的体验。
BIG-IP Next for Kubernetes 通过统一网络、安全、流量管理和负载均衡功能,显著简化了集成企业 AI 基础设施多个元素的复杂性,从而在多云环境中提供全面的可视性,并提高对 AI 工作负载的可观察性。 该解决方案支持零信任架构、API 保护、入侵防御、加密和证书管理的关键安全功能。 随着普遍可用性的提高,我们添加了硬件加速分布式拒绝服务 (DDoS) 缓解功能以及边缘防火墙功能,从而促进更快、更有效的网络保护。 该解决方案还可以自动发现和保护人工智能模型训练和推理端点,使组织能够将人工智能applications与目标威胁隔离,同时增强数据完整性和主权。
此外,BIG-IP Next for Kubernetes 与 NVIDIA BlueField-3 DPU 的集成实现了多租户架构,该架构可以在同一个 AI 集群上安全地托管多个用户,同时保持他们的 AI 工作负载、数据和流量分离。
F5 和 NVIDIA 携手合作,不仅改善了基础设施管理和效率,还实现了更快、响应更快的 AI 推理,从而实现了新兴用例,例如:
对于GPUaaS 和推理服务来说,细粒度的可观察性都是一项关键要求。 BIG-IP Next for Kubernetes 提供了一个集中且完全集成的视图,可在整个 AI 生态系统中提供丰富的可见性以监控性能和弹性,并能够立即应用安全功能来强制执行数据隐私、防止未授权访问并隔离异常。
如需了解更多信息,请浏览产品页面或联系您的 F5 客户团队,讨论适用于您组织 AI 基础设施的 BIG-IP Next for Kubernetes。 F5 对 AI 的关注不止于此 - 探索F5 如何随时随地保护和交付 AI 应用。