为了保持竞争力,企业必须采纳人工智能、分析技术和云原生开发,从而实现检索增强生成(RAG)、多模态人工智能和智能代理等强大且前瞻性的应用场景。支撑这些能力的是可扩展、弹性且高性能的对象存储。
原因很简单:分布式环境中的应用正在生成和消耗数 PB 级数据,EB 级也近在咫尺,我们需要让数据更及时可用,以支持实时工作流程。 AI 请求和 API 调用跨越云端、本地和边缘多个环境,延迟不断累积,拖慢服务响应和洞察获取速度。 AI 应用响应即便延迟几秒,都可能导致大量用户流失。
高效、可靠且可扩展的对象存储帮助企业打破当前 AI 项目的瓶颈,让您能更好地抓住未来的 AI 机遇。 Dell ObjectScale 与 F5 BIG-IP 携手打造协同解决方案,不仅满足您的需求,更革新了跨分布式基础设施交付 S3 兼容工作负载的方式。
戴尔作为对象存储领域的全球领导者,提供了基于容器的软件定义存储平台 ObjectScale,支持 Amazon S3 及其他协议。 我们专门打造该平台,满足分布式环境中大规模数据收集、备份、分析和生成式人工智能的需求。 最新版本增加了 S3 事件通知和自动推送更新外部应用的功能,助您实现 AI/ML 流水线的实时处理。
F5 BIG-IP在F5应用交付与安全平台中,通过智能流量管理支持并加强了ObjectScale,保障在混合多云环境下AI数据交付与采集的流畅运行。 F5 AI数据交付解决方案包括两项核心服务:
F5 如何优化 Dell ObjectScale 节点间的流量。
F5 BIG-IP LTM 和 BIG-IP DNS 协同优化流量,将请求路由到健康且可用的 ObjectScale 存储实例或虚拟数据中心 (VDC),无论其托管位置,确保避免网络拥堵和延迟,从而提升读写速度。 当您结合使用完整的 F5 解决方案和 ObjectScale,即使在地理分布或混合环境中,也能实现无缝水平扩展、高可用性,并为多 PB 级工作负载提供稳定一致的性能。 这些改进对人工智能工作负载尤其关键,因为数据流动性和响应速度直接影响模型训练和推理周期。
BIG-IP 不仅提供负载均衡,还实现了具有精细控制的随需而变流量编排。 例如,F5 iRules可以动态引导流量到最近或最健康的 ObjectScale VDC,优化响应时间和读写性能。 读取请求智能路由回原始写入位置,减少延迟的同时确保数据一致性。
FastL4 和标准配置的更多部署选项,让您能根据组织的重点灵活调整。 FastL4 利用硬件加速并简化了第4层流量的负载检查,提升性能,加快数据传输速度。 标准配置通过第7层功能,如 TLS 终止、HTTP 定制及其他 F5 iRules,提供更精细的控制和更强的安全保障,您可以按需选择应用。
通过对流量分段并在最适合的位置应用每个配置文件,您可以兼得两种优势:利用 FastL4 实现对 ObjectScale 实例的高效读写原始吞吐量,同时通过标准配置中包含的应用层逻辑和 Web 应用防火墙(WAF)等功能,实现精细控制,这些都集成在同一个 BIG-IP 系统中。 与F5 VELOS和F5 rSeries设备的集成显著增强了扩展性,支持大规模吞吐量和并发连接
ObjectScale 以可扩展性为核心,致力于消除存储层的瓶颈,而 BIG-IP 通过智能流量管理解决网络层的瓶颈。 我们将这两项解决方案结合,提供安全、可扩展且互联的存储,支持 S3 协议,并在分布式环境中始终如一地发挥作用。 让您轻松实现具备全球可用性的实时多云 AI。
提升 AI 流水线的可扩展性,降低延迟。
想了解更多? 请阅读我最近在 F5 DevCentral 上发表的技术文章“我是如何实现的——用 F5 BIG-IP 高效负载均衡 Dell ObjectScale 的 S3 服务”。
F5 对 AI 的关注不止于此——探索F5 如何随时随地保护和交付 AI 应用。