博客

关于人工智能和数据隐私的主要关切

F5 新闻中心员工缩略图
F5 新闻中心
2025年7月16日发布

人工智能已经到来: F5 2025年应用战略状况报告调查显示,96%的组织正在部署AI模型。

虽然 AI 承诺帮助组织更聪明、更快、更高效地工作,但它也带来了一些担忧和风险。 基于机器学习和大型语言模型(LLM)的 AI 系统依赖海量数据,这些数据用于训练和调优 AI 模型,驱动 AI 引擎。 这些数据包括个人身份信息、行为模式、位置信息以及财务和健康记录等敏感信息。 随着 AI 日益融入日常应用,个人数据暴露或滥用的风险也随之增加: AI 数据隐私已成为重要关注点。

这篇博文深入探讨了人工智能隐私,分析了人工智能带来的数据隐私风险与挑战。 文章还解读了人工智能隐私法规,并提供了保护人工智能应用中数据隐私的实用建议。

人工智能隐私指什么?

人工智能隐私指的是保护人工智能系统所收集、存储和处理的数据的实践。 人工智能隐私与数据隐私紧密相关,数据隐私强调个人应对自己的个人数据拥有控制权,但人工智能隐私是独立的概念,在关键方面有所区别。

人工智能系统利用庞大数据资源。 实际上,系统应用的数据越多,其准确性和能力通常越强。  例如,据估算,ChatGPT-4 拥有约1.8万亿参数,如此大规模的数据收集也带来了隐私方面的担忧。 由于系统训练时使用的数据集极为庞大——通常来源于网络或其他大型数据库——要确保未含私人或个人数据,或用户是否授权这些数据的使用,都存在困难。

此外,从数据收集到应用交付的整个AI流程实现高度自动化,我们很难在未从一开始设计隐私防护机制的情况下及时发现数据隐私问题。 你需要预先预判潜在风险,因为任何疏忽都可能带来严重的数据隐私后果,且事后难以补救。 当个人数据被用于训练数据集且数据主体要求删除时,AI模型将面临怎样的影响?

人工智能天生擅长识别模式,因此它能将看似无关的数据拼接起来,准确推断个人的隐私信息。 人工智能不仅仅是简单记忆——它会学习数据间的关联,从而提升通过多重特征推断身份或重组数据片段以还原敏感信息的可能性。

即便人工智能系统中的数据已匿名化,这些问题仍然带来严峻的伦理和监管挑战。

人工智能数据隐私挑战

公众普遍关注隐私,但缺乏有效的自我保护知识。 根据皮尤研究中心的数据,70%的美国人不信任企业能负责任地使用人工智能,81%的人担心机构会以让他们不安的方式利用个人信息。 调查显示,78%的受访者相信自己能做出保护个人信息的正确决策,但56%的人经常在未阅读的情况下同意在线隐私政策。

公众对人工智能使用个人数据的态度因不同情境而大相径庭。 根据皮尤研究中心的同一报告,只有28%的受访者认可用人工智能来决定公共资助资格,而有42%的人则无所谓智能音箱通过声音识别个人用户。

组织必须兼顾人工智能和数据隐私的监管要求,同时关注公众对个人数据使用方式的态度和信任感。

人工智能如何引发网络安全风险

AI系统在整个人工智能生命周期中面临数据隐私风险,您需要在开发和部署的每个阶段识别并应对这些风险,确保AI数据的合规和安全使用。

  • 数据摄取。  AI模型需要大量数据集进行训练,采集阶段往往是数据隐私风险最高的环节,尤其涉及医疗信息、个人财务和生物特征等敏感数据时。 个人数据可能是在未经充分同意或不够透明的情况下收集的。
  • AI模型训练。 在训练阶段,AI模型会从摄取的数据中学习模式。  即使个人数据是在获得同意后收集的,AI模型也可能将这些数据用于超出最初意图的用途。 训练阶段容易引发信任和透明度问题,尤其是当个人感到对AI系统如何使用其数据缺乏了解或被误导时。 例如,您可能同意组织访问您的数据用于账户管理,但若您知道这些信息将用来训练AI系统,您可能不会同意分享。
  • 推理引擎。 推理阶段是使用训练有素的人工智能模型从新数据中产生见解或预测。 隐私风险之所以出现,是因为 人工智能系统可以根据看似无害的匿名输入对个人做出高度准确的推断,或者它们可能会揭示或放大训练数据中存在的偏见。 这种情况类似于开源情报(OSINT),即从公开来源收集情报的做法。 OSINT 通过将开放数据转化为战略见解,在网络安全、威胁检测、调查和竞争研究中发挥着至关重要的作用。 然而,OSINT 并不涉及未授权访问或黑客攻击,只 收集合法且公开的数据。
  • 应用层。 AI 应用是黑客重点攻击的入口,因为它们是 AI 系统中最显眼、最易接触的部分。 攻击者可能通过接口或网页服务访问大量敏感数据。 我们系统的访问控制不到位、错误信息过于公开或 AI 响应过于冗长,都可能无意间让合法用户接触到敏感数据。

生成式人工智能带来的隐私风险

生成式人工智能系统,如用于生成文本、图像、代码或音频的大型语言模型,在数据隐私方面带来了极高风险。 多数 AI 模型的训练数据来源于公开网络,这些数据往往未经内容创作者或信息源明确许可或知情同意。 同时,抓取的数据中可能包含个人身份信息,生成式人工智能在推断时可能会泄露这些信息。

生成式人工智能应用,尤其是面向公众的写作助手、聊天机器人和图像生成器,通常具备交互性并通过网络提供访问。 因此,它们容易受到提示注入攻击,攻击者通过精心设计的输入操控模型行为,绕过安全控制,或诱导人工智能生成受限、冒犯性或机密内容。 此外,用户可能会无意中将个人或敏感信息粘贴到人工智能工具中,而这些内容可能会存储在系统里,用于训练或优化未来模型,从而带来意外的数据泄露风险。

这两个因素共同造成高风险场景:如果大型语言模型训练时使用了未经同意或敏感的内容,它可能会被提示重新生成这些内容并泄露个人信息;同时,用户也可能无意中在提示中提交敏感数据,从而导致这些数据被未授权访问或重复使用。

人工智能隐私法规

随着人工智能的快速普及,政府正制定或修订相关法律,应对人工智能系统中涉及个人或敏感数据的隐私风险。 目前,已有144个国家颁布了国家级数据隐私法,美国等国家则采用了多样化的地方数据隐私法规。 虽然这些法规不全是针对人工智能设立,但你必须确保人工智能系统遵守它们。

以下是一些数据隐私法律的示例。

  • 欧盟通用数据保护条例(GDPR)
    GDPR要求您公平、透明地收集和使用个人数据,并且只能出于收集时明确设定的目的。 您必须将数据收集限制在实现预定目的所必需的范围内,确保数据仅在必要期限内保留,同时采取严格措施保护数据的安全和机密性。 虽然GDPR没有明确涵盖人工智能,但任何收集、处理或存储个人数据的人工智能系统都必须完全遵守GDPR原则,确保在人工智能整个生命周期中负责任地处理数据。
  • 欧盟人工智能法案
    欧盟人工智能法案是全球首个由重要管理机构推出的全面人工智能监管框架。 该法案禁止被认定为“不可接受风险”的人工智能应用,例如政府实施的社会信用评分或无差别抓取监控视频中的人脸图像。 此外,它对“高风险”人工智能系统赋予严格法律义务,包括用于招聘环节的简历筛选工具。 高风险AI系统开发者必须执行严格的数据治理,确保所有训练、验证和测试数据集均达到明确的质量标准。
  • 美国州法规
    加州消费者隐私法案》(CCPA)和《德克萨斯州数据隐私与安全法》赋予个人更大掌控其个人数据的权利。 这些法规赋予您关键权利,包括知晓组织如何收集、使用及共享您的数据,要求删除个人信息的权利,以及选择禁止出售或共享该数据的权利。

    犹他州人工智能与政策法案》专门针对高风险生成式人工智能应用制定。 它要求人工智能系统在用户与生成式AI交互时提供明确告知,确保AI驱动的体验透明且让您充分知情参与。

律师事务所 White & Case 发布了AI Watch: 全球监管追踪器,帮助您随时掌握人工智能隐私法规最新动态的优质资源。

AI隐私最佳实践

随着人工智能系统变得愈加复杂和广泛,您必须在整个AI生命周期内保障数据隐私。 以下最佳实践可助您确保合规,维护用户信任,并有效降低风险。

  • 制定强有力的数据治理政策。 综合指导方针应该 包括数据分类、基于角色的访问控制、加密和假名化等数据安全策略、定期审计以及与 GDPR 和 CCPA 等相关数据隐私法规的一致性。
  • 限制数据收集。 只收集人工智能系统完成预期功能所必需的数据。 减少数据量能降低风险,也符合多数数据隐私法律的规定。
  • 获取明确同意。 向用户清晰说明他们的数据将如何被收集、使用和存储。 收集和使用个人数据前,一定要获得用户的明确且知情的同意。 这种透明不仅符合法律要求,也有助于增强用户信任。
  • 核实训练数据的供应链。 您需要确保用于训练 AI 模型的第三方数据集可靠,并严格遵守数据隐私规范。
  • 遵循通用应用安全最佳实践。 通过实施经过验证的数据安全措施,强化您的人工智能系统基础,包括强有力的身份和访问管理、传输中及静止数据加密,以及采用数据匿名化保护个人信息。
  • 持续开展风险评估。 风险管理绝非“一次完成”,对快速发展的人工智能而言,您需要定期重新评估隐私风险。 持续评估以识别新兴威胁,确保合规,并在必要时更新治理政策。
  • 利用软件提升数据安全。 借助F5应用交付与安全平台等智能工具,增强可视化能力,强化隐私法规合规,实时监控AI应用中的敏感数据流。
  • 评估供应商和合作伙伴的隐私政策。 确保所有技术合作伙伴和服务提供商都采取了严格的数据隐私和数据安全措施。 AI 数据通常在共享生态系统中流动,因此有效的第三方管理是降低风险的关键;请查阅 F5 的数据隐私声明

人工智能风险管理框架

各类人工智能相关法规普遍要求根据风险等级对人工智能应用进行分类。 这种风险驱动的方法帮助组织根据人工智能系统可能带来的影响,采取相应的保护和监管措施。

高风险的 AI 应用可能包括:

  • 安全关键系统,我们在关键基础设施、交通运输或医疗设备中应用人工智能功能,这类系统一旦出现故障,可能危及生命或财产安全。
  • 就业和教育系统,我们利用人工智能工具进行招聘、录取、绩效评估或教育机会的获取时,任何偏见或错误都会极大影响您个人的权利和未来发展。
  • 公共安全与执法领域,面部识别、预测警务、监控或风险评分系统可能引发公民自由和歧视等问题。
  • 面向公众的生成式人工智能,当用户可以直接访问生成文本、图像或视频的应用时,尤其是在输出可能影响行为、传播错误信息或无意中泄露敏感信息的情况下。

美国 美国国家标准与技术研究院(NIST)于2023年发布了人工智能风险管理框架(AI RMF),为多个行业和应用场景提供了实用的指导。 该框架为人工智能应用开发人员提供了有价值的参考,它并未简单地划分高风险应用类别,而是指导您如何识别风险并有效加以缓解。

AI RMF 核心包括四个高级功能,体现了对 AI 风险管理的持续循环方法:

  1. 治理。 我们制定并监管组织的政策、流程、程序和实施方式,助力负责任的人工智能发展,确保过程透明且执行有力。
  2. 描绘。 了解人工智能系统的运行环境,评估整个AI生命周期,明确每个阶段的风险与潜在影响。
  3. 衡量。 使用合适的工具、指标和评估方法,评估、监控并量化人工智能带来的风险和影响。
  4. 管理。 您需要优先处理并及时应对风险,通过采取缓解措施和安全控制,降低危害并优化结果。 我们将分配资源监控人工智能系统,及时响应事件,恢复正常运行,并保持有效沟通。

促进人工智能创新,保障数据隐私

随着人工智能的快速发展,您必须在技术进步与数据隐私保护之间找到恰当的平衡。 现行隐私法规认可持续创新的重要性,同时确保数据隐私和安全得到有效保障。

通用数据隐私法,例如 GDPR 和 CCPA,构建了管理数据隐私的核心框架,即便针对人工智能的新规则陆续出台。 您应持续审视人工智能系统对隐私的影响,特别是在功能更新或出现新应用场景时。

请持续评估贵组织的 AI 隐私事项,定期更新数据治理政策,确保它们始终符合技术进步、法规变化和文化期待。