云原生技术、平台工程和人工智能的发展趋势

Karthik Krishnaswamy 缩略图
卡提克·克里希纳斯瓦米
发布时间:2025年10月13日

我们对技术及其运行方式的认知正从多个方面经历深刻变革。 为了了解各组织如何应对这些变化,F5 联合领先的科技市场调研机构 SlashData,对来自不同行业和地区的数百名 IT、安全及软件开发负责人和从业者进行了调研。

参与者包括NGINX开源项目、NGINX Open Source及F5 NGINX商业产品的用户。 我们的调查结果印证了众多组织对在容器化、安全、开发者平台和人工智能领域迅速变革的迫切需求。以下是我们2025年NGINX年度调查的主要发现。

新兴趋势: 智能代理与非CPU架构的未来

F5 NGINX 已成为 AI 基础设施的首选入口,领先的 AI 硬件和软件供应商都将其用作 AI 应用的主要或推荐反向代理和交付控制器。 调查显示,NGINX 用户以及更广泛的应用交付社区正强力推动迈向由 AI 驱动的未来。

参与自主型人工智能任务

图 1: 大多数参与F5 2025 NGINX年度调查的受访者目前正在使用、尝试,或表达了未来使用智能AI任务的兴趣。

AI 代理的应用: 当被问及参与代理 AI 任务的情况(见图1)时,受访者表示“配置 NGINX”的采用率最高,达到 25%,紧随其后的是“网络流量优化和负载均衡”,为 24%。 “基础设施部署与扩展”以及“安全漏洞修复”目前分别为 23% 的受访者正在使用。

综合参与情况: 在结合当前使用和试验自主 AI 受访者的反馈中,“日志分析与主动故障排查”以48%领先。 “配置 NGINX”和“基础设施部署与扩展”各占46%,紧接着是“网络流量优化”45%。

未来关注重点: “漂移检测与校正”引发了最高关注,占33%;其次是“NGINX部署监控”,占32%;紧随其后的是“事件警报与初步处理”,占31%。

用于运行应用工作负载的计算基础设施

图2: 60%的受访者使用虚拟机进行应用工作负载,29%采用平台即服务,25%则依赖GPU等专用硬件。

专用硬件: 有25%的受访者在GPU、TPU或FPGA上运行工作负载——而这些基础设施传统上主要用于通用计算(参见图2)。 我们预计这一比例将持续增长,原因包括小型AI模型的进步、在Docker和云超大规模云原生基础设施中轻松运行小型AI模型,以及将应用交付流程(如加密和SSL卸载到NPU和FPGA,AI推理部署到GPU和TPU等)转移出去。

主要障碍: 调查受访者将安全顾虑(26%)和对准确性的信任不足(24%)视为AI整合的主要障碍。 集成复杂度、合规与监管限制,以及对智能代理能力的认识不足,均占17%。

云原生已经普及,但仍在持续完善中

云原生革命自容器和 Kubernetes 推出以来,十多年间势头持续增强。 在云原生的关键环节,尽管几乎被广泛采用,但仍未实现全面普及(见图 3)。

项目或应用的运行环境

图 3: F5 2025 NGINX 年度调查显示,您部署应用时,本地服务器仍占主导地位,紧随其后的是公共云和混合云。

我们的调查具体发现:

  • 多环境现实确实存在: 66% 的组织使用至少一种云选项,但本地部署仍占主导地位,为 39%,而公共云为 38%,混合云为 36%。 这反映了现代基础设施的复杂性和分布式特性,而不是简单的“云迁移”故事。
  • 容器采用还有很大提升空间: 仅有42%的受访者在容器中运行工作负载,微服务的采用率只有31%。 虚拟机以60%领先,这表明许多组织仍处于云原生转型的初期阶段。
  • Kubernetes 生态碎片化: 虽然 Kubernetes(自主管理)在容器编排领域占据24%的领先地位,但 Red Hat OpenShift(自主管理和全面托管)合计也占21%。Amazon Web Services(21%)、Microsoft Azure(17%)和 Google Cloud Platform(17%)的托管服务则显示出强劲增长势头。

API 和微服务的安全管理存在巨大差距

过去十年里,许多技术组织已经将 API 作为内外部运营的核心连接方式。 在云原生架构中,API-first 是根本设计理念。 因此,86% 的受访者选择部署 API 网关来管理其 API 支持基础设施(见图 4)。

组织的 API 策略

图 4: 86% 的调查 respondents 使用包含内外部 API 的混合 API 组合。

尽管API已广泛普及,且API网关应用普遍,但多数组织在API安全方面仍然不成熟(见图5)。 虽然86%的组织都在使用API,只有34%真正落实了API安全措施。 这给现代应用基础设施带来了巨大的安全风险。

不到一半的受访者重视 API 流量分析(43%)和可观察性(38%),这两者同样是 API 安全的核心环节。 这一差距反映出您在全面观察和管理 API 时面临的挑战。 实际上,23% 的受访者在不同团队中采用各异的 API 管理方法,这种分裂可能源自组织难以统一采用成熟的 API 管理标准流程。

当前的 API 管理能力

图5: 只有34%的受访者实施了API安全,43%进行API流量分析,35%能够追踪并监控API。

平台工程已经发展,但仍处于不成熟阶段

平台工程已成为广泛认可的热门词汇。 事实上,65%的受访者已经开始承担平台工程的职责并建立相关能力(见图6)。 这涵盖了从拥有专职平台团队的大型企业,到由单一成员担任平台工程负责人等各种规模的组织。 大约27%的组织拥有小型专职平台工程团队,21%的组织则在开发或运维团队中设置了独立的平台工程岗位。 还有13%的组织组建了大型专职平台工程团队。 由此可见,平台工程的价值主张已被充分认同并广泛采纳。

平台工程职责或职能

图 6: 65% 的受访者已推行平台工程,因为这一角色的价值正在稳步显现。

尽管如此,各个规模团队在回答关于平台挑战的问题时,都反映出初期阶段的困难。 只有20%的受访者表示没有遇到明显的挑战。 其余受访者指出,多种平台工程挑战正影响着他们的组织,包括安全与合规问题(18%)、文档维护(16%)、技术更新(16%)以及资源限制(14%)。

调查明确显示,大团队和小团队在服务交付和价值主张的优先级上有显著区别。 毫不意外,大团队更专注于复杂领域,而小团队则更偏向传统的DevOps方向。 大型专属平台工程团队更倾向于提供复杂服务,如数据库即服务(54%)、可观测性(52%)、API管理(51%)、防火墙配置和管理(54%)以及CI/CD流水线工具(50%)。

跟上云计算、人工智能和API的发展步伐并不容易

企业部署新技术的速度已超出管理能力。 调查显示,企业积极采用容器、API 和平台工程,但尚未准备好保障和运营所构建的系统。 API 安全是最关键的薄弱环节。 几乎所有组织都在使用 API,然而三分之二缺乏基本保护措施。 这不仅是潜在风险,而是当前生产环境中的活跃漏洞。

与此同时,某些领域正在取得实质性进展。 人工智能代理即将大规模承担实际基础设施任务,不再只是演示。 GPU 和专用处理器正逐渐成为标准配置。 大多数组织已建立平台工程团队,虽然他们的职能还在不断调整中。

现在关键在于执行力。 我们的建议: 在充分管理现有能力之前,别急于增加新功能。 规范您的API安全与管理流程。 构建必要的可观察性,掌握系统状况。 明确平台团队职责,给予充足资源以确保交付。

我们拥有构建现代高效基础设施的技术。 现在正是投入那些虽平凡却必不可少的工作,确保基础设施安全且可持续发展的时刻。

想了解更多关于 F5 NGINX 产品的信息,请浏览我们的网页