博客

使用 F5 和 Google Cloud 随时随地构建、保护和优化 AI 应用

Beth McElroy 缩略图
贝丝·麦克埃罗伊
2025 年 1 月 17 日发布

人工智能技术正在蓬勃发展, 83%的组织预计未来三年将增加对生成式人工智能的投资。 但随着企业竞相构建和部署智能应用,他们面临着挑战。 大多数组织缺乏所需的内部人工智能技能,因此需要新的低代码和无代码解决方案来简化人工智能应用程序的开发。 他们还在努力解决这一新类别应用的安全性、可扩展性和性能问题,与非人工智能应用程序相比,需要新的方法。

以安全为先的 AI 方法

当谈到人工智能应用时,安全性不能被忽视。 由于模型安全性是仅次于成本的第二大 AI 问题,因此组织需要采取安全第一的方法来保护其 AI 模型和利用它们的应用。 这意味着为人工智能基础设施架构的每一层都制定安全策略。 

利用 F5 和 Google Cloud 保护新的 AI 堆栈

使用 F5 和 Google Cloud 保护新的 AI 堆栈。

F5 与 Google Cloud 携手合作,为 AI 提供云安全,保护整个应用堆栈。 Google Cloud 提供了安全的基础架构来运行您的 AI 模型和应用,但作为共享责任模型的一部分,您必须保护您的数据和应用的安全。

通过结合用于 AI 开发的 Google Cloud 解决方案、F5 AI Gateway 中的专用 AI 安全以及 F5 的现代应用安全解决方案,我们的合作伙伴关系可以更轻松地构建安全的 AI 驱动应用。 

利用 Google Cloud 加速 AI 开发

Google Cloud AI 解决方案消除了构建智能应用的传统障碍。 开发人员无需具备深度机器学习专业知识,而是可以利用 Google Cloud Vertex AI 平台进行端到端机器学习 (ML) 模型的开发和部署。 预先训练的第一方和第三方模型可作为构建或微调的起点,然后可从 Google Kubernetes Engine (GKE) 进行部署和提供服务。 所有这些都在安全、专用的 AI 基础设施上运行,包括提供高可靠性和可用性的云张量处理单元 (TPU)。

防范特定于人工智能的威胁

人工智能模型及其连接的应用容易受到试图毒害人工智能模型或操纵输出的人工智能特定威胁。 F5 AI Gateway 与 Google Cloud AI 解决方案协同工作,以阻止入站攻击(例如提示注入),并监控输入以检测个人身份信息 (PII) 的意外泄露。 

虽然人工智能模型和应用程序需要针对人工智能的保护,但它们也需要防御传统应用威胁。 由于 API 在人工智能应用中数量众多,因此 API 具有特殊风险,但机器人和分布式拒绝服务 (DDoS) 攻击也令人担忧。 通过将 F5 分布式云 Web 应用和 API 保护等 F5 安全解决方案与 Google Cloud 相集成,组织可以保护应用免受 OWASP 十大威胁。 

优化AI体验

现代人工智能应用需要在用户身处任何地方提供一致的性能,并且不能浪费昂贵的计算资源。 Google Cloud 的全球基础设施为 AI 部署创建了高效的基础,其分布式边缘位置可最大限度地减少全球用户的延迟。 F5 AI Gateway 的智能流量管理提高了性能,确保了最佳资源利用率和无缝扩展以满足需求,包括多个大型语言模型 (LLM) 之间的路由。

根据需要提供灵活的安全性和优化

AI Gateway 基于 Kubernetes,这意味着它可以在 GKE、其他公共云、私有云和本地数据中心运行,以在任何地方实现 AI应用保护和性能。 查看 Google Cloud 中的 AI Gateway 日志以简化可见性或将 OpenTelemetry 数据导出到您的安全信息和事件管理 (SIEM) 或安全编排、自动化和响应 (SOAR)应用,以收集有关 AI 安全性和性能的指标。

Google Cloud 和 F5 提供将 AI 愿望变为现实所需的开发工具、基础设施和安全性,同时不影响保护或性能。 这些解决方案解决了有关数据隐私、模型安全和运营效率的现实问题,帮助组织更快地行动,同时保持自信运行所需的控制。

要了解更多信息,请参阅Google Cloud Platform 上的 F5网页。