最大限度地减少延迟,增强安全性,并支持团队加速 Kubernetes 和其他环境中的模型推理。 获得闪电般快速、可靠和安全的 AI 部署。
人工智能和机器学习 (AI/ML) 工作负载正在彻底改变企业的运营和创新方式。 Kubernetes是容器编排和管理的事实标准,是支持可扩展 AI/ML 工作负载和推理模型的首选平台。 F5 NGINX 为混合、多云 Kubernetes 环境中的 AI/ML 工作负载提供更好的正常运行时间、保护和大规模可见性,同时降低复杂性和运营成本。
通过自适应负载平衡、无中断重新配置、A/B 测试和金丝雀部署,轻松可靠地操作 AI/ML 工作负载。 通过跨环境的一致性来降低复杂性。
通过使用实时和历史数据的广泛、细粒度的指标和仪表板快速解决应用程序连接问题,提高模型服务效率、正常运行时间和 SLA。
使用分布式环境中的强大安全控制保护 AI/ML 工作负载,不会增加额外的复杂性、开销,也不会降低发布速度或性能。
NGINX 有助于无中断地实验新模型并进行部署。 它允许您收集、监控和分析模型的健康和性能指标,提高其功效和准确性,同时通过强大而一致的安全控制确保全面保护。
NGINX 通过强大的安全功能(包括 WAF 功能和TLS 加密)增强 Kubernetes 环境,以保护敏感的 AI 推理过程,同时不牺牲速度或灵活性。
利用 NGINX 的动态扩展功能轻松处理不断增加的 AI 工作负载,无需进行大规模的架构改革即可保持性能和用户体验。
探索 Ingress 控制器和适用于 Kubernetes 的 F5 NGINX 连接堆栈如何帮助简化和优化 AI/ML 工作负载的模型服务、实验、监控和安全性。