随着企业大规模采用现代应用交付,许多企业在整个部署过程中面临着巨大的配置需求和操作复杂性。 2024 年 12 月,我们宣布推出适用于 F5 分布式云服务的全新 AI 助手,以减少交付、保护和操作应用s所涉及的复杂性和工作量。 为了进一步实现让大规模应用程序安全和交付变得异常简单的使命,F5 推出了针对 F5 NGINX One 的 AI 助手。 在专门针对 NGINX 训练的大型语言模型的支持下,AI 助手为 DevOps、SecOps、NetOps 和平台操作团队提供实时价值和情境感知指导。
F5 NGINX 提供了高度灵活的配置选项,但这种灵活性也带来了错误风险和手动研究的负担。 人工智能助手通过提供 NGINX 文档中的答案和针对日常工作流程的上下文感知建议来消除摩擦。 团队无需筛选分散的资源,而是可以依靠精确的、循序渐进的指导,从而减少故障排除和日常维护所花费的时间。
组织需要有弹性的安全性和一致的洞察力。 人工智能助手使团队能够以更快的价值实现方式预先应对威胁,从而降低操作复杂性并提高投资回报率。 网络团队利用指导来配置和优化应用交付,在异常影响生产之前识别它们。 最终,人工智能助手有助于统一以前孤立的努力,简化任务并减少整个环境中的解决时间。
安全专业人员看重的是验证配置或确认是否满足最佳安全实践的速度。 他们无需深入研究多种工具或仔细查阅文档,而是能够立即洞察潜在的错误配置并立即解决。 同时,DevOps 团队可以通过将常规配置任务转移给 AI 助手,更加专注于构建和部署创新applications。 这种直观的支持可加快开发周期,同时不会影响稳定性或安全性。
任何大规模 NGINX 部署的最大缺陷之一是信息碎片化——指令和高级功能可能存在于档案、过时的指南或社区帖子中。 人工智能助手将这些数据集中起来并将其作为可操作的情报呈现。 通过主动学习 F5 和 NGINX 训练的大型语言模型洞察,该助手定制最佳实践建议,加快重复操作并提高整体可靠性。
当前 F5 NGINX One 客户可以直接从 NGINX One 控制台访问 AI 助手。 NGINX One 的新用户可以通过NGINX One 试用版探索 AI 助手的强大功能和增加的工作流程效率,并了解 NGINX One 如何帮助企业在任何环境中优化、扩展和保护应用程序。
无论您是在优化高流量applications还是加强安全态势,NGINX One Console 内的 AI 助手都可以减少手动流程所需的时间。 通过用丰富的背景见解取代猜测,它可以显著减少开销并确保一致的性能。 从为团队寻找战略工具的技术领导者,到寻求卓越运营的网络、安全、开发人员和平台运营团队,人工智能助手提供了统一的解决方案。
F5 对 AI 的关注不止于此——探索F5 如何随时随地保护和交付 AI 应用。