基于英特尔技术的平台上的 F5

通过在英特尔处理器和平台上使用 F5 解决方案来保护和优化您的应用和 AI 模型。 

加速边缘 AI 推理和应用性能

F5 与英特尔合作提供具有保护性、性能和可用性的高性能、安全的 AI 推理。 此经过验证的解决方案可让您在任何地方提供人工智能应用程序。

保护 AI 模型和应用

英特尔基础设施处理单元 (IPU) 上的 F5 NGINX One 可让您创建安全隔离并使用 mTLS 证书来保护访问。

提高绩效

在英特尔 IPU 上使用 NGINX One 可提高安全性能并卸载解密任务,以节省 AI 模型的 CPU 资源。

确保可用性

NGINX One 提供主动健康检查、高可用性和智能负载均衡,可在需要时提供推理。

F5 如何提供帮助

加速并保护 AI 推理,实现快速可靠的访问

利用 F5 NGINX One、英特尔 IPU 和英特尔 OpenVINO 为边缘安全推理提供高性能保护和简化的 AI 模型优化和部署。

阅读解决方案概述 ›

利用 BIG-IP VE 和 Intel QuickAssist 技术 (QAT) 获得更快的性能

通过卸载和加速加密处理,英特尔 QAT 可提高 BIG-IP VE 安全性和应用性能,同时节省 CPU 利用率。

阅读白皮书 ›

利用 F5 BIG-IP VE 和 Intel 缓解云环境中的攻击

通过与英特尔 FPGA PAC N3000 集成,用于 SmartNIC 的 BIG-IP VE 可将 DDoS 缓解能力提高 300 倍,从而卸载恶意流量检测、释放 CPU 资源并降低 TCO。

阅读解决方案简介 ›

资源

下一步

了解 F5 产品和解决方案如何帮助您实现目标。

联络 F5