F5 2025 技术展望

作者

Lori MacVittie,杰出工程师
Laurent Quérel,杰出工程师
Oscar Spencer,首席工程师

Ken Arora,杰出工程师
Kunal Anand,首席创新官
詹姆斯·亨德加特(老) 导演 技术研究

虽然生成式人工智能无疑对 2024 年的企业产生了最大的影响之一,但它并不是唯一引起轰动的趋势或技术。 大量成本和复杂性正在推动工作负载从公共云中遣返,最明显的是存储和数据。 毫无疑问,这一运动也是由企业数据库利用人工智能潜力的需求所推动的。

这使得企业拥有跨公共云、本地和边缘计算的混合 IT 资产。 虽然我们预计工作负载将从公共云向本地转移,但我们不认为企业会在任何地方“全力以赴”。 它们将保持原有的样子,坚定地保持混合体的身份。

这给企业带来了巨大的挑战,需要在不同环境中实现安全性、交付和运营的标准化。 令人困惑的 API 和工具仍然对数字业务的稳定性和规模构成威胁。

这是 F5 探索技术及其如何影响企业以及随后对应用交付和安全的影响的背景。 这些后果为我们的计划、战略以及对新兴技术的进一步探索提供了参考。 从这个角度来看,F5 技术专家小组就我们认为将对企业以及 2025 年的应用交付产生最大影响的五项关键技术提供了见解。

2025 年技术 #1: WebAssembly

这一现实正在推动我们在 2025 年值得关注的第一项技术—— WebAssembly (Wasm)。 Wasm 提供了一条跨混合多云环境的可移植性途径,能够在 Wasm 运行时可以运行的任何地方部署和运行应用。 但 Wasm 不仅仅是代码跨可移植性承诺的体现。 它提供了与性能和安全相关的优势,同时为丰富基于浏览器的应用的功能开辟了新的可能性。

首席工程师 Oscar Spencer解释说:

预计 2025 年浏览器中的 WebAssembly 不会发生剧烈变化。 最重要的更新是继续支持 WebAssembly 垃圾收集(GC),该功能已集成到 Chrome 中。 这将有利于 Dart 和 Kotlin 等严重依赖 GC 并希望扩大其在浏览器环境中影响力的语言。 Python 在浏览器中的使用也具有改进的潜力,尽管现在预测其全部影响还为时过早。

然而,随着 WASI(WebAssembly 系统接口)预览版 3 的发布,更大的发展发生在浏览器之外。 此次更新引入了异步和流,解决了代理等各种环境下流数据的主要问题。 WASI Preview 3 提供了处理 Wasm 模块内外数据移动的有效方法,并支持对数据处理的微调控制,例如修改标头而不处理整个请求主体。 此外,异步的引入将增强语言之间的可组合性,允许异步和同步代码之间的无缝交互,这对于 Wasm 原生语言尤其有益。 随着 WASI 标准的稳定,我们可以预期 Wasm 的采用率将显著增加,为开发人员提供强大的工具和可靠的平台来构建这些进步。

假设 Wasm 可以解决以前的技术固有的一些可移植性问题,它会将 95% 的组织当前面临的可移植性问题转移到 IT 技术堆栈的其他关键层,例如运营层。

迎接这一挑战的是生成式人工智能和日益现实的 AIOps。 这种奇妙的运营视角——由全栈可观察性提供的基于人工智能的分析所驱动的变化和政策——由于生成人工智能惊人的进化速度而每天都更接近现实。

2025 年技术 #2: Agentic AI

在不到一年的时间里,代理已经出现并取代了人工智能的功能。 这种被称为Agentic AI 的功能不仅可以重塑运营,还可以取代整个企业软件市场。 我们只需看看使用人工智能来自动化近二十年来由 SaaS 主导的工作流程,就能知道这种能力将有多大的颠覆性。

杰出工程师 Laurent Quérel解释道:

自主编码代理将通过自动执行代码生成、测试和优化等关键任务来彻底改变软件开发。 这些代理将大大简化开发流程,减少人工工作量并加快项目进度。 同时,大型多模式代理 (LMA) 的出现将把人工智能功能从基于文本的搜索扩展到更复杂的交互。 这些代理将与网页交互并从各种格式(包括文本、图像和视频)中提取信息,从而增强我们访问和处理在线内容的方式。

随着人工智能代理重塑互联网,我们将看到代理特定浏览基础设施的发展,旨在促进与网站的安全高效的交互。 这种转变可能会通过自动化复杂的网络任务来颠覆电子商务等行业,带来更加个性化和互动的在线体验。 然而,随着这些代理越来越融入日常生活,新的安全协议和法规对于管理与人工智能认证、数据隐私和潜在滥用相关的问题将至关重要。 到 2028 年,预计很大一部分企业软件将融入人工智能代理,从而改变工作流程,并通过在迭代工作流中更快地生成令牌实现实时决策。 这一演变还将促成代理驱动的网络开发新工具和平台的创建,标志着数字领域的一个重要里程碑。

但事实是,要充分利用人工智能的优势,就需要数据——而且是大量的数据。 这是一项重大挑战,因为近一半(47%)的组织承认没有制定针对人工智能的数据策略。 这并非一个简单的挑战。 一个组织所持有的数据量——结构化、非结构化和实时指标——是令人难以置信的。 仅仅对这些数据进行分类就需要大量投资。

2025 年技术 #3: 数据分类

再加上由于攻击面急剧增加而产生的安全问题、有关数据隐私和合规性的新法规以及新数据源和威胁载体的引入,您将面临强大、实时数据分类技术兴起的完美风暴。 也就是说,生成式人工智能模型有望在检测和分类企业数据方面超越传统的基于规则的系统。

詹姆斯·亨德加特(老) 导演 技术研究解释称:

由于几种趋势的融合,数据分类的重要性在 2024 年急剧上升。 数据、设备和应用的爆炸式增长以及持续的数字化转型大大增加了网络威胁的攻击面。 漏洞的增加,加上持续的数据泄露,凸显了对强大数据保护的迫切需求。 同时,旨在保护数据隐私和确保合规性的法规不断扩大,进一步促使组织优先考虑数据分类,因为分类是隐私的起点。 此外,生成式人工智能的兴起引入了新的数据源和攻击媒介,增加了数据安全挑战的复杂性。

大约80%的企业数据是非结构化的。 展望未来,生成式人工智能模型将成为检测和分类非结构化企业数据的首选方法,提供 95% 以上的准确率。 随着时间的推移,这些模型将变得更加高效,需要更少的计算能力并实现更快的推理时间。 数据安全态势管理 (DSPM)、数据丢失预防 (DLP) 和数据访问治理等解决方案将越来越依赖敏感数据检测和分类作为提供一系列安全服务的基础。 随着网络和数据传输服务的融合,平台整合将推动供应商增强其产品,旨在通过提供满足不断变化的企业需求的全面、经济高效且易于使用的平台来占领市场份额。

随着企业开始部署人工智能功能,各个企业都希望将生成式人工智能应用于从生产力到工作流自动化再到内容创作等各个领域,这导致了一种新的应用架构模式的引入。 这种模式扩展了传统的三个关注层——客户端、服务器和数据,以包含一个部署推理的新 AI 层。

2025 年技术 #4: 人工智能网关

这一新的层级有助于推动人工智能网关的定义,这是我们关注的第四个技术。 AI网关不仅仅是API网关或Web网关。 虽然它的基本功能类似于 API 网关,但双向、非结构化流量和不断增长的“好”机器人用户群的特殊架构需求需要新的功能。

杰出工程师 Ken Arora解释说:

AI 网关作为 API 网关的自然演变而出现,专门为满足 AI应用的需求而定制。 与云访问安全代理 (CASB) 专门保护企业 SaaS 应用程序的方式类似,AI 网关将专注于幻觉、偏见和越狱等独特挑战,这些挑战通常会导致不必要的数据泄露。 随着人工智能应用获得更多自主权,网关还需要提供强大的可视性、治理和供应链安全性,确保训练数据集和第三方模型的完整性,这些现在都是潜在的攻击媒介。 此外,随着人工智能应用的发展,分布式拒绝服务 (DDoS) 攻击和成本管理等问题变得至关重要,因为与传统应用相比,人工智能应用的运营费用较高。 此外,为了完成总结和模式分析等任务,与人工智能应用程序共享的数据越来越多,需要更复杂的数据泄漏保护。

未来,AI网关需要同时支持反向和正向代理,由于AI消费速度超过AI生产速度,正向代理在短期内将发挥关键作用。 中间代理对于管理人工智能应用内组件之间的交互也至关重要,例如矢量数据库和大型语言模型 (LLM) 之间的交互。 威胁性质的变化也要求我们改变处理安全问题的方式。 随着许多客户端成为代表人类行事的自动代理,当前的机器人保护模型将不断发展,以区分合法和恶意机器人。 人工智能网关需要借鉴零信任原则,融入委托身份验证、行为分析和最小特权执行等高级策略。 这将包括风险意识政策和增强的可见性,确保有效遏制人工智能驱动的安全漏洞,同时保持强有力的治理。

最紧迫的不仅是要解决围绕数据的传统安全问题(数据泄露、泄漏),还要解决幻觉和偏见带来的道德问题。 在几乎所有有关该主题的调查中,后者都被列为重大风险,这并不令人惊讶。

2025 年技术 #5: 小语言模型

考虑到幻觉和偏见的问题,忽视检索增强生成 (RAG) 和小语言模型 (SLM) 日益增长的使用是不可想象的。 RAG 已迅速成为生成式 AI 的基础架构模式,特别是因为它能够增强大型语言模型生成的信息的特殊性和准确性。 通过结合检索系统与生成模型的优势,RAG 为人工智能的一个关键挑战提供了解决方案:幻觉或生成不正确或误导性的信息。

尚未将 RAG 整合到其 AI 战略中的组织将错失数据准确性和相关性的显著提升,尤其是对于需要实时信息检索和上下文响应的任务而言。 但随着生成式人工智能的用例不断扩大,组织发现仅靠 RAG 无法解决某些问题。

杰出工程师 Lori MacVittie解释说:

LLM 的局限性日益增加,特别是在处理特定领域或特定组织的知识时缺乏精确度,这加速了小型语言模型的采用。 尽管大语言模型在一般知识应用中非常强大,但在提供专业领域的准确、细致入微的信息时往往会失败。 这一差距正是 SLM 发挥作用的地方,因为它们针对特定的知识领域进行了定制,从而使它们能够提供更可靠、更集中的输出。 此外,SLM 在电力和计算周期方面所需的资源要少得多,对于不需要在每种用例中都使用 LLM 的强大功能的企业来说,它是一种更具成本效益的解决方案。

目前,SLM 往往具有行业针对性,通常接受医疗保健或法律等领域的培训。 虽然这些模型仅限于较窄的领域,但无论在成本还是复杂性方面,它们都比 LLM 更易于训练和部署。 随着越来越多的组织寻求更符合其专业数据需求的解决方案,在单靠检索增强生成方法无法完全缓解幻觉的情况下,SLM 有望取代 LLM。 随着时间的推移,我们预计 SLM 将越来越多地主导高精度和高效率至关重要的用例,为组织提供比 LLM 更精确、更节省资源的替代方案。

展望未来: 超越变压器

人们迫切需要更高效的人工智能模型,以便处理现代应用日益复杂的问题而不需要大量的计算资源。 Transformer 模型虽然功能强大,但在可扩展性、内存使用率和性能方面却存在局限性,尤其是随着 AI 模型的规模不断增加。 因此,人们强烈要求开发能够保持高精度同时降低计算开销的架构。 此外,对人工智能民主化的需求(使其可以在各种设备和用例中使用)进一步加速了 1 位大语言模型等创新的采用,这些创新旨在优化精度,同时最大限度地降低硬件要求。

这些需求正在推动人工智能的发展,超越变形金刚。

首席创新官 Kunal Anand解释道:

一种新的范式正在出现:将新颖的神经网络架构与革命性的优化技术相融合,有望实现人工智能在各种应用和设备上的民主化部署。

人工智能社区已经见证了神经网络设计中后变压器创新的早期迹象。 这些新架构旨在解决当前变压器模型的根本局限性,同时保持或提高其在理解和生成内容方面的卓越能力。 最有希望的发展是高度优化的模型的出现,特别是 1 位大型语言模型。 这些创新代表了我们在模型效率处理方式上的根本转变,尽管精度降低了,但仍然保持了模型性能,并大幅减少了内存需求和计算开销。

这些发展的影响将以多波形式层层扩散至人工智能生态系统。 主要影响将立即体现在人工智能部署所需资源的减少。 曾经需要大量计算资源和内存的模型将以更低的开销高效运行。 这种优化将引发计算架构的转变,GPU 可能专门用于训练和微调任务,而 CPU 则以新发现的功能处理推理工作负载。

这些变化将催化以民主化和可持续性为中心的第二波效应。 随着资源需求的减少,AI部署将变得适用于各种应用和设备。 基础设施成本将大幅下降,从而实现以前不切实际的边缘计算能力。 同时,降低的计算强度将通过降低能耗和减少碳足迹产生环境效益,使人工智能的运行更加可持续。

这些发展将实现边缘设备前所未有的功能、实时处理的改进以及跨行业经济高效的人工智能集成。 计算格局将向混合解决方案发展,结合针对特定工作负载优化的不同处理架构,从而创建更高效、用途更广泛的人工智能基础设施。

这些发展的影响远远超出了技术改进的范畴。 他们预测未来人工智能的部署将在保持性能的同时变得更加灵活和环保。 随着我们迈向 2025 年,这些变化可能会加速人工智能与日常应用的融合,为各行各业的创新和效率创造新的机会。

现在唯一不变的其实就是变化

过去的一年无疑是技术领域发生重大变化、发展和惊喜的一年。 我们有理由相信明年的情况将有更多类似。 毕竟,生成式人工智能的全部潜力尚未被挖掘出来,这意味着这项激动人心的技术很可能会出现更多颠覆性的用例。

如果组织尚未尝试生成式人工智能,那么他们应该尝试一下。 服务的使用无疑为聊天机器人和推荐引擎等基本用例提供了一个良好的起点,但生成式人工智能的潜力远远超出了对话和生成新的猫视频。

随着人工智能不断重塑技术基础,我们期待看到更多变化和利用人工智能的新方法不断涌现。