博客

利用 F5 和 Red Hat 生态系统应对 RAG 挑战

Frank Strobel 缩略图
弗兰克·斯特罗贝尔
发布于2025年4月24日

生成式人工智能有望提高生产力和增强业务能力,引起了许多行业商业领袖的关注: 根据 F5 《2025应用战略现状》报告,几乎所有受访者(99%)都表示愿意使用人工智能,不仅为了支持决策,而且为了实现至少一项操作功能的自动化。

F5 首席创新官 Kunal Anand 表示:“世界各地的组织都在加速部署生成式人工智能和其他新兴技术,以改变其工作、创新和与客户互动的方式。

然而,基于现成的大型语言模型 (LLM) 的标准生成式人工智能模型通常缺乏最新信息和上下文智能,无法在当今动态的商业环境中发挥战略性、值得信赖的作用,而实时数据访问、特定领域的专业知识和准确的决策对于成功至关重要。

寻求将生成式 AIapplications与更新、更准确和更特定领域的信息来源相结合的组织正在部署检索增强生成 (RAG),这是一种结合基于检索和生成方法的 AI 框架,以提高 AI 生成的响应的质量和准确性。

企业 AI 是一项团队运动

成功地将 RAG 实施到企业 AI 基础设施中并不是简单的即插即用。 RAG 需要协调多种技术组件和技术,是企业 AI 解决方案如何需要由技术提供商、基础设施合作伙伴和渠道合作伙伴组成的开放协作生态系统才能取得成功的绝佳示例。

部署 RAG 涉及多个供应商,包括数据存储、容器平台、LLM、流量管理工具、API 和后端基础设施等提供商。 企业 AI 确实是一项团队运动,在 F5,我们认识到许多参与者必须齐心协力才能为我们的客户提供大规模的 AI。 成功需要协作网络的力量,该网络包括提供一流组件和软件的技术提供商、将工具转化为业务成果的渠道合作伙伴,以及将人工智能视为解决方案生态系统而非产品的思维模式。

为人工智能奠定卓越基础

F5 和 Red Hat OpenShift AI为将 RAG 部署到 LLM 提供了强大、统一的基础,解决了将来自多个来源的数据集成到生成 AI 系统所涉及的重大安全和流量管理复杂性。 Red Hat 和 F5 拥有悠久的技术合作伙伴关系,两家公司目前的合作为 AI 驱动的计划提供了一个强大、受保护且可扩展的平台,包括将 RAG 集成到现有的 LLM 中。

F5 和 Red Hat 是公认的领导者: F5 被 CRN 评为 25 家“数据中心和边缘最热门 AI 公司”之一,理由是 F5 的“一体化application交付和安全平台……可帮助企业满足多云网络、AI 和 API 安全需求”。 Red Hat 被 Dataquest 评为开源企业解决方案的领导者,并表示其“开源创新将定义企业 IT 的下一个时代”。

F5 先进的安全和流量管理技术与先进的 AIapplication开发平台Red Hat OpenShift AI的结合,有助于为 AI 驱动的计划建立更安全、更具可扩展性的结构。 组织可以放心地部署他们的人工智能applications,因为他们知道这些应用程序可以抵御不断演变的网络威胁,并且能够满足现代人工智能工作负载的苛刻要求。

Red Hat 和 F5 及其技术合作伙伴生态系统将继续合作,帮助客户在复杂的混合环境中连接和保护他们的应用程序和 API。 随着组织探索人工智能的潜力,他们可以依靠 Red Hat 和 F5 等值得信赖的供应商来提供一致、统一的平台,以保持人工智能环境的可管理性、成本效益和安全,从而营造创新与安全并进的环境。

将 RAG 融入现有 LLM 课程的挑战

RAG 对于企业级生成式 AIapplications越来越重要,并且RAG 市场在未来几年将实现大幅增长,2024 年至 2030 年的复合年增长率 (CAGR) 为 44.7%,到 2030 年可能达到 110.3 亿美元。

虽然 RAG 可以极大地增强生成式 AIapplications的输出,但将 RAG 部署到 LLM 中并不简单,因为 RAG 的附加数据组件存在于多个数字环境和外部知识库中,这大大增加了系统复杂性和安全风险。 传递检索请求和增强数据响应所需的必要网络连接带来安全和数据泄露隐患,需要严格的访问控制和加密机制来保护敏感数据。

将 Red Hat OpenShift AI 与 F5 分布式云服务和 F5 BIG-IP Next for Kubernetes 相集成,提供了一套基础服务,可提供先进的安全和流量管理技术来支持和保护多个 RAG 用例。

分布式云服务是基于 SaaS 的安全、网络和应用管理服务,使客户能够在任何需要的地方(数据中心、多云环境、网络或企业边缘)在云原生环境中部署、保护和操作其applications。

反过来, BIG-IP Next for Kubernetes优化了跨 AI 处理集群的流量管理和分配,确保可扩展且高效的 API 通信以支持基于 RAG 的工作负载,确保可靠且高性能的数据流而不会降低性能。

Meta 最近宣布推出 Llama 4 系列 LLM ,其中 Llama 4 Scout 具有 1000 万个令牌上下文窗口,这引发了评论,认为像这样的扩展上下文窗口可能很快就会使 RAG 过时。 然而,Llama 4 LLM 是经过预先训练且自包含的,除非明确为这些功能设计,否则无法实时访问外部或私有数据。 相反,RAG 使模型能够实时从庞大的数据存储中获取并整合最新和最相关的信息,确保 AI 输出既准确又与上下文相关。 F5 认为 RAG 将继续成为基础的生成 AI 机制,因为它更好地适应 AI 工作流的动态和交互特性。

F5 和 Red Hat 联合打造的 RAG 工作负载保护平台

在 Red Hat OpenShift AI 上部署分布式云服务和 BIG-IP Next for Kubernetes 可创建用于保护 RAG 工作负载的强化安全解决方案。 F5 和 Red Hat 联合平台增强了 RAG 的可靠性和可扩展性,为 RAG 支持的生成 AI 解决方案提供了易于管理的基础,从而提高了准确性和相关性,从而改善了结果并提高了用户体验。

欲了解更多信息,请阅读解决方案概述。 如果您计划参加今年的红帽峰会,请参加 F5 会议。