博客

F5 分布式云平台上的 AI 即时安全防火墙可确保生成式 AI 应用交互的安全

宫崎雄一缩略图
宫崎雄一
2024 年 4 月 30 日发布

世界各地的组织正在以令人眼花缭乱的速度构建生成式人工智能应用。 这些自主开发的应用对于推动创新和提高效率至关重要。 但即使是一些最具变革性的生成式人工智能应用也可能使组织面临全新的攻击面。

成功的攻击(例如提示注入、越狱或远程代码执行)可能会导致安全漏洞和数据泄露。 同样,大型语言模型 (LLM) 对组织利益相关者的潜在有害或毒性反应可能会带来声誉损害、法律问题和金钱损失。

为了满足对生成式 AI应用的日益增长的保护需求, F5 分布式云平台正在扩大其第三方技术合作伙伴关系,以涵盖保护生成式 AI应用的技术。 快捷安全一款 AI 防火墙,现已支持 F5 分布式云应用堆栈。 分布式云平台提供 WAF、机器人防御、DDoS 保护和 API 发现/安全等应用安全性,并消除与客户边缘网络连接的复杂性。 此次合作展示了 F5 分布式云服务的可扩展性,并使客户能够轻松地在本地、边缘、混合和多云环境中保护 AI应用。 适用于 AI 的 Prompt Security 防火墙可保护入站生成式 AI 查询和出站响应,确保组织免受提示注入、敏感数据泄露、有害响应和其他黑客攻击。

确保生成式人工智能应用安全的关键原则

1.      解决生成式人工智能特有的安全风险

生成式人工智能应用正在带来全新的安全风险。 因此,单靠传统的安全方法是不够的。 Prompt Security 检查每个提示和模型响应,以防御一系列新威胁,如提示注入、越狱、拒绝钱包等。 所有到生成式 AI应用的流量都通过 Prompt Security 路由,从而提供对传入提示的完整可见性。

2.      审核大语言模型 (LLM) 制作的内容

在用户提示进入组织系统之前对其进行检查与确保 LLM 的响应是安全的并且不包含可能对组织造成损害的有毒或有害内容同样重要。

针对 AI 的 Prompt Security 防火墙位于从入站查询到生成式 AI LLM 以及出站响应的路径上,以阻止入站攻击和出站数据泄露。

3.      确保数据隐私并防止泄露

在开发可操作的生成式人工智能应用时,应用将能够访问组织(或第三方)的数据库和资源,以提供最有益的用户体验。 然而,如果没有适当的安全措施,组织数据可能会作为 LLM 生成的响应的一部分被泄露。这可能会让用户欺骗应用泄露保密资料,从而导致可能的法律和声誉后果。

4.      实施治理和可视性

应用程序开发人员和安全团队在所有可能的插入点监控生成式 AI 应用程序的入站和出站流量。 随着组织围绕人工智能的治理和监管日益详细且执行力度越来越大,这一点将变得更加重要。 Prompt Security 为每个生成式 AI 交互提供完整的日志记录。 日志包括用户、提示、响应、发现等。

通过安全的 Gen AI应用提高企业生产力

适用于 AI 的 Prompt Security 防火墙使 F5 分布式云服务客户能够在每个接触点保护他们的生成式 AI应用。 通过内置的即时可观察性和策略管理,组织可以保护其生成性 AI应用,提高业务生产力并维持数据治理。

要阅读 Prompt Security 的新闻稿,请访问此处

要查看 Prompt Security + F5 分布式云服务的实际演示,请查看https://www.youtube.com/watch?v=rP4fgpXgv3Q

要更好地了解 F5 分布式云服务如何帮助企业在任何地方为任何应用构建基础设施,请访问https://www.f5.com/cloud

要了解有关 Prompt Security 的更多信息,请访问https://www.prompt.security