博客 | 首席技术官办公室

用于威胁建模和事件响应的生成式人工智能

Caitlin Arnspiger 缩略图
凯特琳·阿恩斯皮格
2025 年 4 月 7 日发布

几年前,我们大多数人将“生成式人工智能”与艺术创作联系在一起——绘制超现实主义肖像、创作音乐,甚至写短篇小说。 快进到今天,我们看到相同的生成技术变成了强大的网络安全工具。 有点讽刺的是,曾经用于创建异想天开的猫图像的技术现在正在帮助我们发现复杂威胁载体并应对现实世界的事件。

但生成式人工智能与网络安全的融合是否仅仅是炒作呢? 或者我们是否正处于威胁建模和事件响应的新时代的开端——可以大幅减少检测和缓解攻击的平均时间? 我要证明的是,生成式人工智能将在识别新威胁和协调高效的数据驱动响应方面发挥重要作用。 然而,与任何新兴技术一样,它也存在缺陷。 让我们深入挖掘。

论文: 生成式人工智能具有独特的能力,可以综合模式、预测新攻击媒介和自动化响应策略,这将显著增强我们的威胁建模和事件响应能力——但前提是我们必须正面应对可靠性、道德和数据治理方面的挑战。

网络威胁发展速度极快,传统的基于规则或基于签名的系统往往落后。 生成模型(如高级大型语言模型)可以检测异常并假设远远超出传统启发式范围的潜在未来攻击模式。 然而,它们也引入了新的漏洞,例如可能出现“幻觉”误报或无意中生成恶意代码。 我们必须以同等的兴奋和谨慎的态度对待这些能力。

超越已知特征的威胁建模

为什么要使用生成式人工智能进行威胁建模?

传统上,威胁建模依赖于已知的攻击特征、历史模式和人类的专业知识。 但多态恶意软件、供应链漏洞和零日漏洞的激增使得单纯的被动方法变得不够。

进入生成式人工智能。虽然“生成式”在当今的说法中通常意味着大型语言模型 (LLM),但它也可以包括能够产生新数据模式的其他算法。 这些模型可以在海量遥测数据集中发现微妙的关联——例如可疑的命令序列、横向移动尝试或渗漏模式。 重要的是,它们不仅限于“恶意”的明确标签。 相反,他们了解“正常”行为的潜在分布,并可以标记未明确列为威胁的异常。

然而,检测异常只是第一步。 如果没有人将某些行为标记为恶意或良性,则 LLM(或任何生成方法)可能需要与其他分类器或启发式检查相结合,以确认某些行为是否真正邪恶或只是不寻常。 例如,它可以假设新的横向移动模式是可疑的,但一些组织合法地使用很少访问的跳转主机 - 从而使异常在上下文中无害。 最终,生成性人工智能擅长发现超越传统特征的可能性,但它必须与强大的决策逻辑(自动化或人为主导)相结合,以确定哪些异常代表真正的威胁。

真实世界的试验: F5 沙盒环境

在 F5,我们于 2024 年底进行了一次受控模拟,以了解生成式 AI 模型在不断演变的威胁环境中的表现。 我们向内部 F5 测试环境提供来自多租户环境的匿名日志数据,有意注入新的、以前从未见过的攻击模式。 最初,该模型产生了一些“错误警报”(这些模型可能过于急切),但通过迭代训练,它开始以比我们基于基线签名的系统更高的精度检测异常。 真正令人印象深刻的部分? 它还标记了我们的蓝队分析师都没有考虑到的潜在漏洞,比如在正常文件共享协议下伪装的某些横向移动尝试。

缩短“平均补救时间”

自适应响应策略

生成模型不仅仅用于检测——当事件发生时,它们可以快速启动建议的剧本。 可以将其视为一个 AI 合作者,监控实时日志、合并来自多个数据源的情报并提出协调的响应计划。

例如,如果系统检测到高风险异常,它可以推荐动态防火墙策略或隔离可疑虚拟机(VM)。 由于它从过去的事件中学习,这些建议会随着时间的推移而不断完善。 这是对初始设置后很少更新的静态运行手册的重大改进。

大规模编排工具

我们在各大安全会议(例如今年Black Hat 2024和新启动的 AI-SecOps 峰会)上看到了一波生成式 AI 集成浪潮。 他们专注于“自主”或“代理”响应,其中 AI 层实时协调多种安全工具 - SIEM、端点保护、WAF。 如果多云如今已成为常态,那么协调 AWS、Azure 和本地环境之间的威胁响应的单一生成模型就会开始变得非常有吸引力。

但这里有一个问题: 如果我们只是自动化过时或低效的流程,我们就有可能“更快失败”,而不是改善我们的整体安全态势。 通过采用人工智能而不重新考虑基本工作流程,我们可能会加速执行有缺陷的程序。 这就是为什么人工智能应该被视为一种催化剂,来重新想象我们如何处理安全和交付,而不是仅仅加速我们已经在做的事情。

还值得注意的是,生成模型可以自动响应并不意味着它应该这样做。 我们需要护栏和升级路径来确保人类能够参与关键决策(例如隔离整个生产环节)。 简而言之,如果我们愿意更新流程的基础,而不仅仅是速度,那么生成性人工智能就提供了一个激动人心的机会来挑战旧的假设并设计更高效、更具适应性的事件响应框架。

2025 年的热门话题

  • LLM之争仍在继续: 顶级云提供商正在竞相发布最“安全”的大型语言模型(LLM),每个模型都声称具有先进的微调功能,可以减少幻觉并提高依从性。
  • 开源项目: 社区驱动的举措(如AI-SIGSThreatGen )正在兴起,为安全研究人员提供开源框架来构建自定义生成威胁模型。
  • 监管焦点: 欧盟新的人工智能监管提案将生成性网络安全应用置于“高风险”技术之下,要求透明度和明确的数据来源。

这是一个令人兴奋的时刻:我们看到越来越多的大型企业和中型企业采用该技术并渴望超越传统的解决方案。 但是,如果组织跳过强大的数据治理、模型可解释性和问责框架等基本步骤,那么急于部署生成性人工智能可能会导致问题。

幻觉、隐私和道德困境

虽然生成模型可以通过创造性的推理让人眼花缭乱,但它们也会“产生”看似合理的、但实际上并不存在威胁。 一波误报可能会让您的安全运营团队陷入大量毫无意义的警报之中。 随着时间的推移,这会削弱人们对人工智能驱动系统的信任。

训练稳健的模型需要数据——大量的数据。 根据地区的不同,隐私法可能会限制可以使用哪些日志或遥测数据。 清理或匿名化敏感用户数据对于避免合规噩梦和维护合乎道德的数据使用至关重要。

我们不能忽视更黑暗的一面: 威胁行为者可以(并且已经)使用生成式人工智能来起草令人信服的网络钓鱼电子邮件、开发新形式的恶意软件或更快地发现零日漏洞。 在我们建立这些防御能力时,我们必须假设攻击者在进攻时也做同样的事情。

拥抱未来

展望未来,生成式人工智能可能会发展成为每个 SecOps 工具包中的标准层,像今天的漏洞扫描程序或入侵检测系统一样紧密集成。 随着可解释性的提高(思考人工智能如何得出结论的更多透明度),安全团队将更有信心让人工智能处理威胁建模生命周期的大部分内容。

我们还可能看到全球威胁情报联盟,其中在不同组织训练的生成模型在保持隐私的同时共享部分见解。 这可能导致各行业对零日攻击做出更快、更协调的反应。

不过,值得重申的是,我们仍处于早期阶段。 在关键任务场景中依赖生成式人工智能之前,组织必须投资于数据最佳实践、强大的训练流程和明确的治理。

准备好重新思考安全性了吗?

生成式人工智能有可能颠覆传统的威胁建模和事件响应方法。 通过创造性地分析模式和自动化响应策略,它可以提供无与伦比的速度和准确性——假设我们解决了幻觉、合规性和道德保障等固有挑战。