博客

SecOps 团队如何看待人工智能?

Shawn Wormke 缩略图
肖恩·沃姆克
发表于2025年9月11日

新技术一出总让人激动。 你一定记得自己第一次用大型语言模型(LLM)提示、第一次使用网页浏览器,甚至数据居然存放在“云端”时的那种奇妙感受。 但每一次创新背后,都有一群安保专家默默负责,确保大家可以安全地使用这些新技术。 我们常被头条新闻和未来潜力吸引,尤其在 AI 领域尤为明显。定义 F5 在 AI 安全领域的角色时,我们选择退后一步,问问安全领域的专业人士如何看待 AI。

由于 F5非常关心我们的客户,我们分析了过去一年(2024 年 7 月至 2025 年 6 月)互联网上最大的安全专业人士社区Reddit 的 r/cybersecurity中顶级用户的每一条与 AI 相关的评论。 我们将每条评论和用户分类到情绪桶中,并提取每个评论和用户表达的或潜在的痛点。

安全运维对 AI 的看法各半

图 1

48%的从业者持乐观态度,已经将其纳入自己的技术栈中,其他人仍对未来抱有怀疑或担忧。

半数 SecOps 评论对 AI 表现出乐观态度。他们在系统中应用 AI 驱动工具,自动化重复任务,或利用 AI 助手来优先处理警报。

另外一半的评论反映了两种态度:一是担忧保障人工智能系统安全的复杂挑战,二是质疑人工智能能否超越目前的发展水平。 

图 2

安全从业者在 Reddit 的 r/cybersecurity 讨论中最关心数据保护,紧随其后的是可观测性/异常检测和人工智能驱动的攻击。

隐形人工智能与数据安全

人工智能对数据的需求与网络安全的基本原则产生了矛盾,使数据安全成为焦点议题。 2025年,数据安全成为安全专业人士最关注的问题,随着企业加快采用人工智能,其重要性还在持续提升。

这个领域最突出的问题是影子AI,即用户未经授权与AI系统的交互。 无论组织的AI应用处于何种阶段,这一问题都会持续存在。 

我们把可观察性视为基本需求,而非附加功能

数据安全可能是讨论的焦点,但在安全运维中,可观察性和异常检测是下一个最重要的 AI 关注点。 供应商纷纷宣称 AI 能支持安全流程,但您需要平衡这些期待: “AI 安全代理的能力有限,务必始终有人参与其中。” 一位分析师分享了用 AI 自动化处理 EDR 警报一线分拣,成功将平均处理时间从 45 分钟缩短到不足 2 分钟,但他也强调,“这背后有严格的控制措施,绝不能缺少。” 需求始终明确:在 AI 互动中实现持续可见性和可追溯性,自动化重复任务,同时保留关键决策权给人类。 

攻击者的攻击手法在不断演变

这不仅是一个理论上的威胁,它还成倍增强了机会主义者的底线,提升了复杂威胁行为者的上限。 实际中,我们通过两种形式来讨论这些变化:一是针对人工智能系统的新型对抗技术,如提示注入或越狱攻击;二是社会工程攻击的恶意普及,如网络钓鱼和深度伪造。 随着模型和智能代理接入更多工具和数据,您对后者的担忧只会不断加深。 

模型行为需要规范引导

还有 12% 的痛点聚焦于模型行为和输出质量带来的安全风险。 最受关注的问题包括幻觉反应、准确性不足及有害输出,但最关键的是权限升级——AI 访问它无权使用的数据或执行任务。 我们看到安全运营团队正推动切实可行的管控措施:根据业务风险调整内容审核、确保策略一致,并为模型与代理明确划定权限。

SecOps 对 AI 安全的真正需求

从言外之意,甚至有时直接表达来看,安全团队期望供应商达到更高的标准:

  • 优先考虑数据安全: 用于 AI 策略实施和反映最小特权的访问控制的数据丢失保护( DLP)。
  • 拒绝“AI粉饰”: 用更多实实在在的证据展示安全与合规实力,而非虚假夸大。
  • 让可观察性达到审计标准并切实可用: 我们简化并优化现有 SIEM/SOAR 工作流程的集成,同时在所有交互中实现全面可见性。
  • 为人类环节提供灵活性: 设计时着眼于优先实现重要成果,而不仅仅追求速度。
  • 对抗韧性: 人工智能 攻击面不断变化,随着新威胁的出现,解决方案也需要随之发展。
  • 简化政策管理。  让您轻松遵循企业范围的政策和监管要求,无需额外人工操作。

我们已回应号召

将数据保护放在首位,调整安全策略以应对新兴的对抗性威胁,确保可观察性贯穿所有交互,并以负责任的人工智能治理原则进行设计。 我们将持续分享真实场景的测试洞见,发布安全团队能直接应用的实用指南, 并在降低风险的做法上始终保持透明。

回想起上面 Reddit 上关于安全高效人工智能的评论,我们期待将“或”变成“和”。

我们听见了您的需求;这是我们的回应