博客 | 首席技术官办公室

人工智能中的关键概念: 透明度和可解释性

Lori MacVittie 缩略图
洛里·麦克维蒂
2024 年 7 月 16 日发布

几乎每一项旨在了解行业对人工智能担忧的调查,都将所有内容都归结为“安全”的范畴。 从对敏感数据泄露的担忧到幻觉和偏见,从通过提示注入进行利用到透明度和可解释性,似乎人工智能的一切都是由安全承担的责任。

每一个担忧都是合理且重要的,但它们都非常不同,而且大多数都不属于安全部门的责任。

今天,我们将深入探讨透明度和可解释性,这两个都是在您的业务中使用人工智能时需要理解和付诸实践的关键概念。 这不仅是因为它们是建立对系统和结果的信任的方式;它们还支持系统的故障排除和调试,尤其是在开发过程中。

透明度和可解释性

透明度和可解释性通常是关键概念,但尤其适用于人工智能,因为大多数从业者(即使在 IT 领域)都不熟悉这些系统的工作原理。 这两个概念经常在道德人工智能、负责任的人工智能和人工智能治理的背景下讨论。 尽管它们密切相关,但它们具有不同的含义,并在理解和管理人工智能系统方面发挥着不同的作用。

透明度侧重于向广大受众(包括利益相关者和公众)提供有关人工智能系统的一般信息。 可解释性更加具体,旨在向需要了解其行为的用户、开发者和利益相关者阐明单个决策或结果。 

透明度侧重于增强对系统的信任,而可解释性则关注于建立对特定输出的信任。 为了实现这一点,透明度和可解释性侧重于不同的要素。

透明度: 引用你的来源

人工智能的透明度是指人工智能系统的设计、运行和决策过程的信息对利益相关者的开放、可访问和可理解的程度。 它强调清晰的沟通和对人工智能系统如何运作的可见性,让利益相关者了解系统的各个方面。

人工智能透明度的关键要素包括:

  • 设计和开发: 透明度涉及共享有关人工智能系统的设计、架构和训练过程的信息。 这包括使用的数据类型、所实施的算法和模型。 这种透明度类似于金融服务披露,其中提供商解释哪些数据和权重决定了您是否有资格获得抵押贷款或信用报告机构的 FICO 分数。
  • 数据和输入: 透明度涉及明确用于训练和操作人工智能系统的数据来源和类型。 它还包括披露对输入数据应用的任何数据预处理、转换或增强。 此类信息类似于数据收集声明,企业会告诉您他们收集、存储哪些数据以及可能与谁共享这些数据。
  • 治理和问责: 提供有关谁负责人工智能系统的开发、部署和治理的信息。 这有助于利益相关者了解责任结构。

可解释性: 展示你的作品

人工智能的可解释性是指为系统的决策、输出或行为提供可理解的理由或依据的能力。 它强调解释为什么做出特定的决定,重点是让用户和利益相关者理解人工智能的结果。

人工智能可解释性的关键要素包括:

  • 决策理由: 可解释性涉及详细说明导致特定决策或输出的因素和逻辑。 它回答了以下问题: “为什么人工智能会做出这个决定?”以及“是什么影响了这个结果?” 这类似于在几何中做证明;您需要依靠公理(中介性、一致性、平行线等)来解释您的输出。 换句话说,如果人工智能决定 2+2=5,它必须证明该决定的合理理由,比如依赖于替代数学系统,或使用该等式作为文学手段。  
  • 模型可解释性: 可解释性要求使人工智能模型可解释,以便利益相关者能够理解决策背后的机制。 例如,并不是每个人都懂微积分,所以用复杂方程的形式来解释是不够的。 生成对抗网络 (GAN) 和卷积神经网络 (CNN) 的工作方式存在相当大的差异,因此披露所使用的架构方法是可解释性的重要组成部分。
  • 人类的理解能力: 解释必须采用人类(包括非专家)容易理解的格式。 这需要以简单、清晰的方式呈现复杂的AI操作。 您不能以十六进制形式或代码来提供解释;您需要使用所有利益相关者(包括法律、合规和工程师)可读的内容。

建立对人工智能的信任

每种新技术都需要时间来建立信任。 十五年前,没有人信任自动扩展的关键应用,但今天它却被视为一项基础功能。 任何类型的自动化,无论是解决复杂的数学问题、驾驶汽车还是支付账单,都需要时间来赢得用户的信任。 流程的透明度和系统运作方式的解释可以大大缩短引入和采用之间的差距。

透明度提供了对人工智能系统运作的广阔视野,而可解释性则深入探究特定决策或结果背后的原因。 两者对于人工智能的成功以及企业实现其在提供更好的客户服务、提高生产力和加快决策方面的好处都至关重要。

并且这都不属于安全范围。