博客 | 首席技术官办公室

解决生成式人工智能的安全性和可靠性问题

Lori MacVittie 缩略图
洛里·麦克维蒂
2023 年 11 月 28 日发布

每个人都在争相进入生成式人工智能这个金矿。至少表面上看起来是这样。 最近,我收到的新闻稿中几乎都以某种方式提及生成式人工智能。

但深入挖掘,你很快就会意识到,生成式人工智能目前最大的影响在于营销。

我们现在看到的是人们正在抢占唾手可得的果实。 任何不需要经过大量开发或研究就能轻松“添加”的功能,都会被用强力胶粘上去然后运出门。

大多数公司——无论是科技、制造还是医疗保健——都采取了更为慎重的做法。 如果可以的话,这是一种更具战略性的方法。 因为这是我的博客,所以我可以。

如果我们根据最近的 ExtraHop 调查来判断人们的认识,那么对如何使用生成式人工智能更加挑剔的原因是众所周知的。 人们最关心的问题分为两类:可靠性和安全性。

使用生成式人工智能图表的最大担忧。

在生成式人工智能领域,可靠性就是准确性和信任度。 我必须能够相信我收到的回复——无论是代码、配置还是内容——都是准确和正确的,并且不充满偏见。

在安全领域,我们一如既往地有同样的担忧——甚至更多。 现在,不仅仅是客户和员工 PII 的暴露,还有商业机密和知识产权泄露到全世界。 

解决生成式人工智能风险

可靠地解决挑战需要大量工作,因为它们要么需要 (a) 大量的训练和微调,要么需要 (b) 一种架构方法,其中生成式人工智能只是解决方案的一部分,并利用先进的提示工程技术来验证其自身的响应。 两者都需要时间和金钱,这就是为什么我们没有看到生成式人工智能解决方案塑造市场。 然而。 这将会实现,但需要时间。 

安全挑战既容易解决,又困难解决。 解决泄露商业机密或知识产权的挑战意味着 (a) 部署和运行您自己的 LLM 实例(以及所有相关内容)或 (b) 围绕问题进行架构。 这意味着开发使用 LLM 的生成能力作为工具而不是主要来源的 GPT 代理。 

例如,我们很容易忘记收集的数据可能具有战略重要性。 我用来追踪市场活动的模型看似无害,但却揭示了 F5 对市场的看法以及在该市场竞争的计划。 它具有战略意义。 因此,您不会想将此交给公共 LLM 进行分析。 再加上现实情况,生成式人工智能在分析表格数据方面很糟糕——我确实是说很糟糕——这似乎是一个糟糕的用例。 

但是通过利用 OpenAI 函数来利用 Python 的数据分析功能,这并不是一个坏主意。 这需要时间和开发工作,因为您需要构建 GPT 代理而不是简单地将数据交给 OpenAI 进行分析,但它解决了可靠性和安全性的挑战。 

如果客户或员工 PII 意外泄露,我们已经看到了一种更简单的解决方案,那就是数据屏蔽。

生成式人工智能的数据屏蔽

现在,数据屏蔽在开发中的应用已经越来越广泛,因为它允许开发人员使用真实数据进行测试,而不存在泄露敏感数据的风险。 但它同样适用于与生成式人工智能一起使用,作为一种防止暴露的方法。 目前已有许多开源库和工具可供使用,使得集成变得容易,因为大多数生成式人工智能都是由 API 驱动的,而 API 很容易拦截和检查对敏感数据的请求。 

使用数据屏蔽来解决生成式人工智能的安全问题在开发和生产过程中都有效,确保敏感数据在整个应用生命周期内不会暴露。 

事实上,在生成式人工智能出现并取代其他所有技术之前,数据屏蔽就已经兴起了。 但生成式人工智能很可能成为应用交付和安全领域以及应用程序开发中数据屏蔽功能的催化剂。

了解 F5 解决方案如何支持和保护基于 AI 的应用程序 ›