优化、扩展和保护 AI 交互

最大限度地减少延迟,增强安全性,并支持团队加速 Kubernetes 和其他环境中的模型推理。 获得闪电般快速、可靠和安全的 AI 部署。

大规模生产中的高效模型推理

人工智能和机器学习 (AI/ML) 工作负载正在彻底改变企业的运营和创新方式。 Kubernetes是容器编排和管理的事实标准,是支持可扩展 AI/ML 工作负载和推理模型的首选平台。 F5 NGINX 为混合、多云 Kubernetes 环境中的 AI/ML 工作负载提供更好的正常运行时间、保护和大规模可见性,同时降低复杂性和运营成本。

简化操作

通过自适应负载平衡、无中断重新配置、A/B 测试和金丝雀部署,轻松可靠地操作 AI/ML 工作负载。 通过跨环境的一致性来降低复杂性。

获得见解

通过使用实时和历史数据的广泛、细粒度的指标和仪表板快速解决应用程序连接问题,提高模型服务效率、正常运行时间和 SLA。

提高安全性

使用分布式环境中的强大安全控制保护 AI/ML 工作负载,不会增加额外的复杂性、开销,也不会降低发布速度或性能。

NGINX 是 AI 企业安全和交付的核心

模型推理图

简化和精简模型服务、实验、监控和安全

NGINX 有助于无中断地实验新模型并进行部署。 它允许您收集、监控和分析模型的健康和性能指标,提高其功效和准确性,同时通过强大而一致的安全控制确保全面保护。

F5 如何提供帮助

资源