使用 AI/ML 为您的 API 提供支持和保护,以降低生态系统的复杂性,并保护和优化混合和多云环境中的每个application和 AI 工作负载。
可灵活地在任何地方部署 AI 工作负载
F5 可以灵活地将 AI 提供到靠近您的数据的位置(从数据中心到边缘),以最大限度地提高准确性、洞察力、性能、成本效率和安全性。
几分钟内自动连接到分布式 AI 工作负载
通过抽象底层基础设施,自动连接跨环境的分布式 AI 工作负载,消除复杂性,释放业务敏捷性和创新能力。
所有applications的统一安全性
连接、保护和管理云端、边缘或 F5全球网络中的应用和工作负载。
加速 AI 工作负载性能
F5 的application加速解决方案旨在优化 AI 工作负载的性能,包括高效共享 GPU 资源。
人工智能工作负载的全球流量管理
对于具有全球影响力的组织,F5 的全球流量管理解决方案在优化 AI 工作负载的部署和确保数据主权方面发挥着关键作用。
人工智能驱动的分析
F5 利用 AI 和 ML 的强大功能,为 AI 工作负载的性能和安全性提供可行的见解。
几十年来,大多数组织被迫改进其基础设施以支持新的applications和工作负载。 随着新兴大型语言模型 (LLM) 和生成人工智能(AI)applications(例如 OpenAI 的 ChatGPT)的快速发展,这种演变仍在继续。 人工智能工作负载是现代应用中最现代化的部分,它给组织带来了双重挑战:优化这些关键任务人工智能操作的性能和安全性。 随着生成式人工智能和机器学习 (ML)applications不断重塑行业,对人工智能工作负载的分配和治理做出明智的决策已变得至关重要。
生成式人工智能包含几项有助于提高其功能性和有效性的关键资产。 在 AIapplications架构中,Kubernetes、application编程接口 (API) 和多云环境之间的交互对于创建有凝聚力和可扩展的系统起着至关重要的作用。 从高层次上看,Kubernetes 作为首选平台,充当编排器,管理 AIapplication内各种组件的部署、扩展和监控。 API 充当通信渠道,使这些组件能够无缝交互。 多云环境可以选择最佳位置来运行每个工作负载和用例,以确保可预测的性能和一致的安全性。
Kubernetes 不断发展成为生成式 AI 的首选平台,为容器化提供基础,确保 AI 模型、数据处理管道和其他服务能够得到有效管理和扩展。 它允许动态分配计算资源,确保最佳性能和资源利用率。 云原生 Kubernetes 有助于在混合和多云环境中无缝部署 AI 工作负载。 事实证明,Kubernetes 周围充满活力的生态系统是加速人工智能创新和应用的强大力量。 行业领袖、开源项目和云提供商之间的合作正在促进人工智能技术的突破。
API 是 AI 架构的关键,使不同的组件和服务能够相互通信。 API 为 AIapplication的各个部分提供连接组织以交换数据和指令。 例如,AI 模型可以利用 API 从基于云的存储服务请求数据或将其预测发送到不同的组件进行决策。 此外,OpenAI 插件利用 API 进一步增强 ChatGPT 的功能,使 ChatGPT 能够与开发人员定义的 API 进行交互。
传统数据中心通常难以满足高级 AI 工作负载的苛刻要求,这引发了人们对其容量和现代数字环境适用性的担忧。 人工智能模型训练和微调产生的大量数据使“数据引力”成为采用人工智能的公司关注的一大问题。随着存储库中的数据量及其效用的增加,数据引力也随之出现。 最终,复制或移动这些数据的挑战变得繁重且成本高昂。 因此,数据本质上会将服务、applications和其他数据吸引到其存储库中。 数据引力以两种方式影响生成式人工智能。 首先,它限制了训练和生成数据的可用性和可访问性。 同时它还放大了数据对于完善和提升生成式人工智能模型及其结果的必要性和价值。
多云环境已经成为新一类人工智能applications的基础,因为它们能够使私有但高度分布的数据更易于利用。 多云环境允许 AIapplications利用来自不同云提供商的最佳资源,从而进一步增强了架构的灵活性和弹性。 多云还降低了云供应商锁定的风险,并在提供迁移机会的同时防止潜在的停机。 Kubernetes 与 API 结合,确保这些多云环境能够得到有效管理和编排,从而简化跨不同云平台的 AI 工作负载的部署和扩展。
虽然多云方法提供了灵活性和可扩展性,但它也带来了数据一致性、安全性和合规性方面的挑战。 组织需要确保工作负载和数据能够在云、本地数据中心或数据湖之间安全地传输。 为了确保数据主权,组织需要满足某些行业和政府监管要求,同时又不能严重影响人工智能响应时间。 利用多云环境也可以帮助实现这一点,因为它可以让全球组织访问不同地理位置的云服务,从而帮助解决法规遵从问题。 当你考虑到每个 AI 模型都建立在访问庞大的数据库的基础上,以便实时为用户查询提供正确的推理,并且训练数据可以存储在任何地方时,解决这个问题就是一个挑战。
在理想情况下,公司应该通过统一的解决方案满足与 AI 工作负载相关的严格的连接性、安全性和可扩展性要求,该解决方案在公共云、私有云、原生 Kubernetes 和边缘之间扩展一致的application和安全服务。
由于 AI 工作负载应尽可能靠近其所需数据进行部署,因此工作负载通常部署在多个云中,这使得保持集中的可见性和控制成为一项挑战。 在已经分布式的application环境中添加生成性 AI 工作负载进一步扩大了企业威胁面。
必须谨慎地承认,虽然人工智能为使用它的applications提供了巨大的好处,但要充分利用人工智能的优势,公司必须采取必要的措施来优化和保护他们的人工智能工作负载。 这不仅需要提高AI工作负载的效率,还需要管理复杂的Kubernetes环境、无缝且安全的API集成以及有效管理多云网络。
生成式人工智能和其他人工智能工具包正在成为网络犯罪分子的主要攻击面,他们经常使用人工智能部署更新颖、更复杂的攻击来访问个人身份信息 (PII) 和其他机密数据 - 包括可能泄露商业机密或知识产权(IP) 的训练数据。 安全运营团队必须能够检测和阻止对抗性攻击,包括对 AI 和 ML 模型的恶意操纵。 从支持几乎无法与现实区分的深度伪造,到发起传播勒索软件攻击的复杂网络钓鱼电子邮件活动,网络犯罪分子都在瞄准并利用人工智能来获取恶意利益。
人工智能环境中的另一个关键安全问题是影子人工智能。与影子 IT 一样,影子人工智能指的是在公司治理之外使用的人工智能工具。 当员工“绕过” IT,忽视为保护业务而制定的政策和流程时,影子人工智能就会成为一个问题,通常是因为他们认为政策和流程会减慢创新速度,并阻止他们利用人工智能进行开发和提高生产力。 随着整个组织的员工爆炸式地使用生成式人工智能,再加上缺乏适当的治理,再加上经常消耗敏感数据的学习模型,影子人工智能对 PII、公司 IP 和其他敏感公司数据的暴露构成了重大威胁。 组织必须实施机制来防范影子人工智能的危险。
尽管人工智能看起来像魔术,但事实并非如此: 就像许多其他应用程序一样,它实际上只是一个功能强大的现代application。 LLM 只是理解自然语言并从大型数据模型或数据湖中学习的算法,利用机器学习来理解、总结、创建和预测新内容。
在这个快速发展的环境中,F5 提供包含并使用 AI 的解决方案,通过 AI 为 AI 提供动力和保护,从而驱动和保护您的 AI。F5 提供业界领先的交付、性能和安全服务,这些服务可扩展到您的整个分布式application环境。
无论您是在仓库车间还是在公司办公室运行 AI 工作负载,F5 的统一解决方案都可以在公共云、私有云、原生 Kubernetes 和边缘之间扩展一致的application和安全服务,帮助您降低 AI 复杂性,同时提供无与伦比的规模和性能。 安全地将不同位置、环境和云端的 AIapplications的不同元素互连,以充分利用这一全新现代application范式的优势。
F5 为现代 AI 工作负载提供支持和安全保护,确保在多样化的 AI 生态系统中以高性能和全面的安全性进行分布和保护。 F5 的 AI 工作负载交付和安全解决方案可以安全地将训练和推理模型(无论它们在何处或如何分布)连接到需要它们的用户和应用程序,无论它们位于何处。 获得可预测的性能和底层统一的数据结构,支持大规模训练、改进、部署和管理 AI 和 ML 模型。 借助 F5,您可以轻松将数据转化为洞察力,并且效率更高、安全性更强、更深层次。
统一管理解决方案
通过单一窗口实现多云网络连接、应用程序和 API 交付、简化管理和 AI 应用程序安全性。
安全的多云网络
与云无关的结构,可连接位于任何地方的应用程序、API 和 AI 工作负载。
分布式入口和推理
用于控制、扩展、保护和监控跨数据中心、云和边缘的 LLM 训练、微调和推理的抽象层。
API 和 LLM 保护
API 和大型语言模型 (LLM) 的动态发现和自动运行时保护。
F5 可以灵活地将 AI 提供到靠近您的数据的位置(从数据中心到边缘),以最大限度地提高准确性、洞察力、性能、成本效率和安全性。
F5® 分布式云网络连接和 F5® 分布式云应用连接允许将训练模型部署在私有云或数据中心,同时还提供与云端或边缘数据源的安全连接。
作为 F5® 分布式云服务产品组合的一部分,分布式云网络连接通过基于 SaaS 的工具提供跨任何环境或云提供商(包括本地数据中心和边缘站点)的第 3 层连接。 它提供端到端可视性,自动配置链接和网络服务,并支持在所有站点和提供商间创建一致的、基于意图的安全策略。
F5® 分布式云应用程序堆栈可使用统一的生产级 Kubernetes 轻松部署、管理和保护 AI 工作负载,无论位于何处——从私有云和公共云到边缘位置。 它支持本地边缘的 AI 模型,并具有内置 GPU 支持,可确保高性能可用性。 分布式云应用程序堆栈通过使用集中式工作流程在任意数量的边缘站点上提供应用程序和安全性,简化了 AI/LLM 推理应用程序的部署。
此外,适用于 Kubernetes 的 F5® NGINX® 连接堆栈为在 Kubernetes(本地和云中)运行的 AI/ML 工作负载提供快速、可靠和安全的通信。 NGINX Connectivity Stack for Kubernetes 是一个包括入口控制器、负载均衡器和 API 网关功能的单一工具,可大规模增强正常运行时间、保护和可见性,同时降低复杂性和运营成本。 NGINX Connectivity Stack for Kubernetes 通过一系列工具和集成帮助扩展、观察、管理和保护从边缘到云的 AI 工作负载,这些工具和集成可以改善客户体验,同时降低复杂性、提高正常运行时间并增强实时可见性。
通过从单一控制点简化 WAF、机器人、API 和 DDoS 保护,使 SecOps 能够保护作为 AI 工作负载管道的applications和 API 接口,并适应对 AI 模型和环境的对抗性攻击。
了解混合和多云堆栈中的所有 AI 工作负载对于解决影子 AI 的使用以及其他使专有数据面临风险的问题至关重要。 将 gen-AI 工作负载添加到已经分布式的应用环境中,从逻辑上扩大了企业威胁面,为模型拒绝服务 (DoS) 攻击、训练数据中毒和 API 漏洞创造了机会。
利用 F5® 分布式云 Web 应用和 API 保护 (WAAP) 来确保数据模型的安全和受管控,以防止知识产权被意外使用。 享受“单击启用,随处运行”安全策略带来的好处,实现一致、可重复的保护、全球覆盖和实施。 API 驱动的工作负载保护方法可以改善网络、安全操作和开发人员之间的协作。
借助分布式云 WAAP,组织可以简化实现有效的 AI 工作负载安全的途径,而不会牺牲持续的业务创新。 这包括通过结合管理和执行功能来提供一种全面的方法来对 API 进行运行时分析和保护。 轻松有效地监控所有 API 端点和application路径——发现和跟踪未知或影子 API,并通过持续检查和模式实施来保护它们。 F5 的 API 安全解决方案可保护支持 AI 特定交互的 API,并降低与未授权访问、数据泄露、滥用和严重漏洞相关的风险。 这可确保applications和任何关键的 AI 工作负载无缝且安全地运行。
使用可适应攻击者在全球流量最大的数千个applications和 AI 工作负载中发起的重组尝试的平台来防御恶意机器人,包括那些试图操纵 LLM 的机器人。 基于无与伦比的设备和行为信号分析实现高效的机器人保护,以揭露和减轻自动恶意机器人攻击。 此外,借助 F5 的分布式云网络连接,确保您的数据在传输过程中的安全。 通过 F5 获得通用可视性、动态发现、基于 AI 的洞察和自动修复。
通过抽象底层基础设施,自动连接跨环境的分布式 AI 工作负载,消除复杂性,释放业务敏捷性和创新能力。
F5® 分布式云安全多云网络 (MCN) 降低了管理和部署 AI 工作负载的复杂性。 自动连接您环境(云、多云、边缘)中的分布式 AI 工作负载,而无需担心底层基础设施。 通过提取跨工作负载结合和关联数据的数据分析来优化 AI 计划的价值。 建立一个中央控制点,用于管理任何地方的任何application或 AI 工作负载的策略。
运行企业级 AIapplications并需要强大的企业级解决方案的客户将希望利用 F5 分布式云安全 MCN 的优势,在公共和混合部署、原生 Kubernetes 和边缘站点之间扩展application安全性和服务。
连接、保护和管理云端、边缘或 F5全球网络中的应用和工作负载。 分布式云应用程序堆栈简化了 AI 训练应用程序的管理、部署和交付方式。 只需单击几下即可将软件和操作系统更新推送到网站。
人工智能工作负载,尤其是与生成式人工智能相关的工作负载,需要大量的计算资源。 F5 的application加速解决方案旨在优化 AI 工作负载的性能,包括高效共享 GPU 资源。 通过优化效率、减少延迟和改善响应时间,F5 加速了 AI 预测的交付,确保了无缝的用户体验并支持 AI 驱动applications中的实时决策。
对于具有全球影响力的组织,F5 的全球流量管理解决方案在优化 AI 工作负载的部署和确保数据主权方面发挥着关键作用。 这些解决方案可在分散的地理中心和云区域之间高效分配 AI 工作负载,从而提高性能,同时确保关键任务 AI 和 AI 驱动applications的高可用性和冗余。
F5 利用 AI 和 ML 的强大功能,为 AI 工作负载的性能和安全性提供可行的见解。 通过持续监控和分析流量模式和application行为,组织能够就工作负载放置和资源分配做出数据驱动的决策,确保 AI 工作负载的最佳性能。
人工智能继续渗透到现代商业和生活的方方面面——其中生成型人工智能占据主导地位。 为了支持这一发展,公司必须确保其基础设施能够利用人工智能的优势,以最大限度地减少滞后、延迟和风险。 当企业应对 AI 的复杂性(包括生成 AI 和 AI 工作负载)时,F5 仍然是值得信赖的合作伙伴,帮助企业在庞大的生成 AI 生态系统中充分利用 AI 的奇迹和优势。
F5 利用 AI 为您的 AI 提供支持和保护,提供业界领先的性能以及涵盖整个分布式application环境的交付和安全服务。 无论您是在仓库车间还是在公司办公室运行 AI 工作负载,都可以将强大的工具交到员工和合作伙伴手中,以获得新的见解并提高新的效率。 借助由广泛的大数据遥测技术提供支持的强大安全措施,客户可以采取主动措施来减轻不断演变的人工智能风险。 这使组织能够保持或达到创新的前沿,同时为快速发展和变革的技术环境中的挑战和机遇做好充分准备。