博客

在工作场所使用生成式人工智能工具需要更高的安全性

Rachael Shah 缩略图
蕾切尔·沙阿
2023 年 8 月 22 日发布

生成式人工智能就像一个闪亮的物体,让人无法将目光从其上移开。

几乎全世界的每一家企业都对生成式人工智能工具在转变其业务方面的潜力垂涎三尺——这是有充分理由的。

生成式人工智能是一种机器学习的形式,它根据自然语言请求创建文本和图像等内容,是一项改变游戏规则的技术。 从提高生产力到改善个性化,生成式 AI 工具带来了一系列好处。

例如,在Gartner最近的一项民意调查中,超过 2,500 名高管表示客户体验和保留率(38%)是他们投资生成式 AI 的主要目的。 其次是其他领域,如收入增长(26%)、成本优化(17%)和业务连续性(7%)。

除此之外, IBM对 3,000 名 CEO 进行的单独调查显示,69% 的受访 CEO 看到了生成式 AI 为其组织带来的广泛益处。 然而,只有 30% 的非 CEO 高级管理人员表示他们的组织已准备好负责任地采用生成式人工智能。

坦白说: 这令人担忧。 不到三分之一的高级管理人员表示他们的组织已准备好负责任地采用生成式人工智能?

使用生成式 AI 工具可能带来的所有积极收益很容易让您惊叹不已。 但我们不要忘记: 使用生成式人工智能工具可能会带来重大风险和挑战。

随着生成式人工智能的快速发展,如果组织不注意其员工如何利用生成式人工智能工具,并且不了解输入生成式人工智能界面的数据,那么组织很快就会陷入困境。

以下仅列举了生成式人工智能可以突然将积极、有益的体验转变为代价高昂且负面的安全问题的许多方式中的几种:

  1. 泄露敏感的公司数据。
    您可能听说过或读到过有关三星员工意外将代码上传到 Open AI 的聊天机器人ChatGPT 的新闻。 这不仅暴露了专有数据,而且给三星带来了一场重大的全球公关噩梦。 而且,三星很可能不是唯一一家发生或可能发生这种情况的公司。 下一个可能就是您的公司。

  2. 传播错误信息和偏见。
    ChatGPT 等生成式 AI 工具由大型语言模型 (LLM) 提供支持。 大语言模型 (LLM) 接受来自文章、网站和其间所有内容的数据集(包括错误和不正确的信息)的训练。 人们很容易被误导,认为生成式人工智能工具不会产生错误信息或传播偏见,并将其用于你的活动或建立你的假设。 但在您意识到之前,真相与虚假之间的界限就已变得模糊,您的声誉亦是如此。 此外,生成式人工智能聊天机器人产生的偏见和不正确的信息甚至还没有开始解决人工智能幻觉所带来的问题!

  3. 错误处理个人身份信息(PII)。
    在与生成式 AI 工具交互期间可以收集 PII。 这些工具背后的企业必须遵守严格的数据隐私措施。 如果他们不这样做,您可能会发现自己正面临账户被盗用的困境。 或者,如果有不法分子获得了您的客户的 PII,您就会陷入严重的法律麻烦并与客户产生矛盾。

幸运的是,许多组织正在采取措施维护安全做法。 一些公司提供关于生成式人工智能的正面和负面方面的培训。或者鼓励员工负责任地探索和实验。 其他人则设计了生成式人工智能政策,用于员工确认和所需的指导。

虽然这些措施确实有优点,但生成式人工智能工具的普及性、复杂性和快速发展需要更多的安全性。 此外,在这个等式中总是会存在人为错误。

我确信你已经听过一次了。 或者可能多次: 看不见的东西可能会伤害你。 当谈到在工作场所使用生成式人工智能工具时,这一点再真实不过了。 缺乏意识可能会导致您的公司遭受损失。

为了防止在工作场所使用生成式人工智能的威胁,公司必须采取零信任方法。 请记住,零信任的关键原则是“永不信任”。 一定要验证。” 您今天应该优先考虑的零信任安全的一个关键策略是检测对生成式 AI 工具的访问。

通过提高员工在工作中如何利用生成式 AI 工具的可见性和细粒度控制,安全团队可以识别和管理潜在风险。 这有助于组织:

  1. 保护数据、PII、代码、知识产权(IP) 等。
  2. 启用并应用支持公司指南的政策。
  3. 维护其安全,防止生成性人工智能工具被故意或意外滥用。

随着生成式人工智能领域的持续快速发展,企业可以通过提供生成式人工智能工具检测的零信任安全框架而更加放心。

要了解有关 F5 如何帮助您降低在工作场所使用生成式 AI 工具的潜在风险的更多信息,请查看此 F5 BIG-IP SSL Orchestrator DevCentral 文章