人工智能引发了许多情绪反应。 有人认为它是接踵而至的潮流之一,很快会像NFT和3D电视那样被遗忘。 也有人开始筑起庇护所,准备应对拥有自我意识的恶意AGI统治者。 在种种夸张之中,有一件事我们可以确定: 人工智能与海量数据紧密相连。
关于人工智能,外界有很多炒作,让人们兴奋、恐惧或怀疑,但在 F5,我们更关心的是你们这些日常从业者的真实感受。 为了解目前面临的挑战和忧虑,我们深入分析了互联网上最大的安全专家社区 Reddit 的r/cybersecurity,探查大家的情绪倾向。 Shawn Wormke 在关于这项研究的第一部分博客“SecOps 如何看待 AI?”中总结了整体发现。 所有引用均截取自 2024 年 7 月至 2025 年 6 月,安全从业者的真实评论。 接下来,我们将重点剖析今年你们最关注的 AI 相关问题:数据安全。
2025年,数据安全成为与人工智能相关的最受关注问题,而1月发生的DeepSeek攻击更进一步推动了这一趋势。
许多人预见到一个人工智能威胁环境:不法分子利用 AI 进行复杂的社会工程攻击,并释放大量智能机器人。 这些威胁的确存在,但安全专业人士描绘的情况更加单纯,却同样危险,且覆盖面更广。 因此,SecOps 对内部 AI 滥用的担忧出现的频率是对恶意滥用担忧的 2.3 倍。
这直击第一个问题的核心:敏感信息泄露。 正如一位从业者简明扼要地说,“实话实说,大家在工作中都在用LLM,并且往提示里加入各种敏感信息。” 随着模型支持更大的上下文窗口,且更多文件类型可以通过检索增强生成(RAG)使用,员工们发现最快获得准确结果的方法,就是给LLM提供它可能需要的所有信息。 这直接违背了零信任的核心原则——最小特权原则。 简单来说,“安全与能力之间始终存在矛盾。”
大多数组织确保 AI 安全时,都会制定可接受使用政策(AUP)。 虽然策略多样,但普遍认为传统的威慑和限制手段无法奏效。
正如一位用户所说,传统工具如 Web 应用防火墙(WAF)和 DNS 过滤只是拖延了不可避免的结果: “通过阻止它们,你实际上是将数据强制推向这些免费服务。 面对黑名单,永远都是一场打地鼠游戏。” 由此激发了过去一年最受关注的挑战之一:影子人工智能。每天都会不断发布新模型,而这些模型的包装程序每小时都在更新调试。 用户总会找到绕过政策的方法,因为他们认为那些政策阻碍了他们优先目标的实现。
影子人工智能和敏感数据泄露这两大问题叠加,让安全团队面临最糟糕的局面:大量暴露却完全不透明。 用户可能会使用主流的大型语言模型来节省阅读时间,甚至在此过程中上传保密文件。 而借助影子人工智能解决方案,SecOps团队能够监控这些交互,并采取多种风险缓解措施。 他们能针对特定用户加强关注,在未来互动中保持警惕,或者在行为改变前限制其访问关键资源。 缺乏影子人工智能解决方案时,传统手段如防火墙和DNS阻断仅是将用户推向同一基础模型的模糊外壳,导致安全团队无法清晰看到风险行为的形式、方式和具体位置。
随着欧盟人工智能法案和通用数据保护条例(GDPR)等合规标准日益严格,并叠加现有行业法规,您若缺乏有效的人工智能数据治理,就可能面临高额罚款、法律责任及公众信任的流失。
安全专家经历过许多技术浪潮,其中热情和追求竞争平等常常超越了安全考虑。 云计算的发展轨迹与当前人工智能类似:快速普及和对新机会的期待,随后导致广泛的配置错误、权限过度及共享责任模型的失效。 听起来是不是很熟悉? 本质区别在于,云计算时代影响整体风险的参与方数量明显更少。 人工智能安全的新领域扩展了关注范围,不仅是云架构师和工程师,现在任何有权访问敏感数据的人,包括模型本身,都成为关注的重点。
任何技术都会带来一定的风险,但从未有过全球共同决定“风险太大,立刻停止”的情况。 安全专家清楚地认识到,自己肩负着重要而艰巨的任务。
确保人工智能与数据交互时具备有效防护措施和持续监控是一项挑战,但如果您要跟上AI的快速发展,这绝对是必不可少的。
F5 已经采取了切实措施应对这些挑战,我们将继续听取 SecOps 的意见,引导我们的重点工作。 点击这里了解详情。