新闻稿

F5 携手 NVIDIA 扩展性能、多租户和安全功能,助力快速发展的 AI 领域发展

发布于2025年6月11日
联系方式

丹-索伦森
F5
(650) 228-4842
d.sorensen@f5.com

霍莉·兰开斯特
我们。 通讯
(415) 547-7054
hluka@we-worldwide.com

Sesterce 认证彰显了 F5 与 NVIDIA 之间的协作创新,旨在帮助客户实现 AI 优先应用交付的价值

巴黎  F5(纳斯达克: FFIV 是交付和保护每个应用程序和 API 的全球领导者,今天宣布了F5 BIG-IP Next for Kubernetes 的新功能,该功能通过NVIDIA BlueField-3 DPUNVIDIA DOCA 软件框架加速,并由客户 Sesterce 的验证部署强调。 Sesterce是欧洲领先的运营商,专注于下一代基础设施和主权人工智能,旨在满足加速计算和人工智能的需求。

作为F5应用交付和安全平台的扩展,BIG-IP Next for Kubernetes 在 NVIDIA BlueField-3 DPU 上原生运行,为大规模 AI 基础设施提供高性能流量管理和安全性,从而为 AI应用带来更高的效率、控制力和性能。 除了今年早些时候宣布的引人注目的性能优势以及全面上市之外,Sesterce 还成功完成了对 F5 和 NVIDIA 解决方案在多项关键功能方面的验证,包括以下领域:

-增强性能、多租户和安全性以满足云级期望,最初显示 GPU 利用率提高了 20%。

- 与NVIDIA Dynamo和 KV Cache Manager集成,以减少大型语言模型 (LLM) 推理系统的推理延迟并优化 GPU 和内存资源。

- BlueField DPU 上的智能 LLM 路由,可与NVIDIA NIM微服务有效运行,以满足需要多种模型的工作负载,从而为客户提供所有可用模型中的最佳模型。

-扩展和保护模型上下文协议 (MCP),包括反向代理功能和对更具可扩展性和安全性的 LLM 的保护,使客户能够快速、安全地利用 MCP 服务器的功能。

-强大的数据可编程性与强大的F5 iRules功能相结合,可快速定制以支持 AI应用和不断发展的安全要求。

“在我们进行任何测试之前,F5 和 NVIDIA 之间的整合就很有吸引力,”Sesterce 首席执行官兼联合创始人 Youssef El Manssouri 表示。 “我们的结果强调了 F5 在 AI 环境中通过大容量 Kubernetes 入口和出口实现动态负载平衡的优势。 这种方法使我们能够更有效地分配流量并优化 GPU 的使用,同时使我们能够为客户带来额外的独特价值。 我们很高兴看到 F5 对越来越多的 NVIDIA 用例的支持,包括增强型多租户,我们期待两家公司在支持下一代 AI 基础设施方面实现更多创新。”

新解决方案功能的亮点包括:

  • 使用 BIG-IP Next for Kubernetes 实现 LLM 路由和动态负载均衡

通过这种协作解决方案,简单的 AI 相关任务可以路由到更便宜、更轻量的 LLM 来支持生成 AI,同时保留高级模型用于复杂查询。 这种级别的可定制智能还使路由功能能够利用特定领域的 LLM,从而提高输出质量并显著增强客户体验。 F5 的高级流量管理可确保将查询发送到最合适的 LLM,从而降低延迟并缩短第一个令牌的时间。

F5 首席创新官 Kunal Anand 表示:“企业越来越多地部署多个 LLM 来支持先进的 AI 体验,但路由和分类 LLM 流量可能需要大量计算,从而降低性能和用户体验。” “通过直接在 NVIDIA BlueField-3 DPU 上编程路由逻辑,F5 BIG-IP Next for Kubernetes 是交付和保护 LLM 流量的最有效方法。 这仅仅是个开始。 我们的平台为人工智能基础设施开启了新的可能性,随着企业人工智能的不断扩展,我们很高兴能够与 NVIDIA 深化联合创新。”

  • 利用 NVIDIA Dynamo 和 KV Cache 集成优化 GPU,实现大规模分布式 AI 推理

今年早些时候, NVIDIA Dynamo 推出,为在大规模分布式环境中部署生成式 AI 和推理模型提供了补充框架。 NVIDIA Dynamo 通过协调调度、路由和内存管理等任务来简化在分布式环境中运行 AI 推理的复杂性,以确保在动态工作负载下的无缝运行。 将特定操作从 CPU 卸载到 BlueField DPU 是 F5 和 NVIDIA 组合解决方案的核心优势之一。 借助 F5,Dynamo KV Cache Manager 功能可以根据容量智能地路由请求,使用键值 (KV) 缓存通过保留先前操作的信息来加速流程(而不是需要资源密集型的重新计算),从而加速生成 AI 用例。 从基础设施的角度来看,存储和重用 KV 缓存数据的组织只需花费使用 GPU 内存成本的一小部分即可实现这一目标。

NVIDIA 人工智能网络和安全解决方案、生态系统和营销高级总监 Ash Bhalgat 表示:“通过 NVIDIA BlueField-3 DPU 加速的 BIG-IP Next for Kubernetes 为企业和服务提供商提供了单一控制点,可高效地将流量路由到人工智能工厂,从而优化 GPU 效率并加速人工智能流量,以进行数据提取、模型训练、推理、RAG 和代理人工智能。” “此外,F5 对多租户的支持以及通过 iRules 增强的可编程性继续提供一个非常适合持续集成和功能添加的平台,例如对 NVIDIA Dynamo 分布式 KV 缓存管理器的支持。”

  • 使用 F5 和 NVIDIA 增强对 MCP 服务器的保护

模型上下文协议 (MCP) 是由 Anthropic 开发的开放协议,它规范了应用向 LLM 提供上下文的方式。在 MCP 服务器前端部署 F5 和 NVIDIA 的组合解决方案,可使 F5 技术充当反向代理,从而增强 MCP 解决方案及其支持的 LLM 的安全功能。 此外,F5 iRules 支持的完全数据可编程性可促进对快速发展的 AI 协议要求的快速适应和恢复能力,以及对新兴网络安全风险的额外保护。

World Wide Technology 全球服务提供商高级副总裁 Greg Schoeny 表示:“实施代理 AI 的组织越来越依赖 MCP 部署来提高 LLM 的安全性和性能。” “通过将先进的流量管理和安全性引入广泛的 Kubernetes 环境,F5 和 NVIDIA 提供了集成的 AI 功能集以及可编程性和自动化功能,这是我们目前在业内其他地方所没有看到的。”

部署在 NVIDIA BlueField-3 DPU 上的 F5 BIG-IP Next for Kubernetes 现已全面上市。 如需了解更多技术详情和部署优势,请访问www.f5.com并参观 NVIDIA GTC Paris 上的公司,该活动是本周VivaTech 2025活动的一部分。 您还可以在F5 的配套博客中找到更多详细信息。

关于塞斯特斯

Sesterce成立于2018年,是一家欧洲领先的专注于高性能计算和人工智能基础设施的运营商。 通过对价值链的全面控制,该公司可以根据初创企业、大型企业和学术机构的需求提供灵活、自主和可持续的解决方案。 Sesterce 的目标是成为欧洲人工智能基础设施的领导者——在坚持道德和环境标准的同时,帮助创新者扩大规模。

本着这种精神,Sesterce 还在其基础设施之上提供了“AI 原生”服务层:它提供高级数据准备,可以提取和转换异构实时流,为开发或部署大型模型的组织提供对超大型语言模型 (VLLM) 的专门支持,并提供专为 AI 原生初创企业和成熟企业设计的模块化商业智能解决方案。 此外,Sesterce 通过完全符合欧洲主权和保密标准的私有 AI 和推理环境确保端到端的隐私和控制。

关于F5

F5, Inc.(纳斯达克:F5(FFIV)是全球领先的应用交付和安全服务提供商。凭借三十年的专业知识,F5 构建了业界领先的应用交付和安全平台 (ADSP),可在本地、云端、边缘以及混合多云环境中交付和保护每个应用、每个 API。 F5 致力于创新并与全球最大、最先进的组织合作,提供快速、可用和安全的数字体验。 我们共同努力,互相帮助,共同繁荣,创造一个更加美好的数字世界。

如需了解更多信息,请访问f5.com
访问f5.com/labs探索 F5 实验室威胁研究
关注以了解有关 F5、我们的合作伙伴和技术的更多信息: 博客| LinkedIn | X | YouTube | Instagram | Facebook

F5、BIG-IP、BIG-IP Next 和 iRules 是 F5, Inc. 在美国和其他国家/地区的商标、服务标志或商品名称。 本文中的所有其他产品和公司名称可能是其各自所有者的商标。

# # #

本新闻稿可能包含与未来事件或未来财务业绩有关的前瞻性陈述,其中涉及风险和不确定性。 此类声明可通过 "可能"、"将"、"应"、"预计"、"计划"、"预期"、"相信"、"估计"、"预测"、"潜在 "或 "继续 "等术语或此类术语或类似术语的反义词来识别。 这些陈述仅为预测,实际结果可能会因多种因素(包括公司向美国证券交易委员会提交的文件中确定的因素)的影响而与这些陈述中预期的结果存在实质性差异。