几乎每一项旨在了解行业对人工智能担忧的调查,都将所有内容都归结为“安全”的范畴。 从对敏感数据泄露的担忧到幻觉和偏见,从通过提示注入进行利用到透明度和可解释性,似乎人工智能的一切都是由安全承担的责任。
每一个担忧都是合理且重要的,但它们都非常不同,而且大多数都不属于安全部门的责任。
今天,我们将深入探讨透明度和可解释性,这两个都是在您的业务中使用人工智能时需要理解和付诸实践的关键概念。 这不仅是因为它们是建立对系统和结果的信任的方式;它们还支持系统的故障排除和调试,尤其是在开发过程中。
透明度和可解释性通常是关键概念,但尤其适用于人工智能,因为大多数从业者(即使在 IT 领域)都不熟悉这些系统的工作原理。 这两个概念经常在道德人工智能、负责任的人工智能和人工智能治理的背景下讨论。 尽管它们密切相关,但它们具有不同的含义,并在理解和管理人工智能系统方面发挥着不同的作用。
透明度侧重于向广大受众(包括利益相关者和公众)提供有关人工智能系统的一般信息。 可解释性更加具体,旨在向需要了解其行为的用户、开发者和利益相关者阐明单个决策或结果。
透明度侧重于增强对系统的信任,而可解释性则关注于建立对特定输出的信任。 为了实现这一点,透明度和可解释性侧重于不同的要素。
人工智能的透明度是指人工智能系统的设计、运行和决策过程的信息对利益相关者的开放、可访问和可理解的程度。 它强调清晰的沟通和对人工智能系统如何运作的可见性,让利益相关者了解系统的各个方面。
人工智能透明度的关键要素包括:
人工智能的可解释性是指为系统的决策、输出或行为提供可理解的理由或依据的能力。 它强调解释为什么做出特定的决定,重点是让用户和利益相关者理解人工智能的结果。
人工智能可解释性的关键要素包括:
每种新技术都需要时间来建立信任。 十五年前,没有人信任自动扩展的关键应用,但今天它却被视为一项基础功能。 任何类型的自动化,无论是解决复杂的数学问题、驾驶汽车还是支付账单,都需要时间来赢得用户的信任。 流程的透明度和系统运作方式的解释可以大大缩短引入和采用之间的差距。
透明度提供了对人工智能系统运作的广阔视野,而可解释性则深入探究特定决策或结果背后的原因。 两者对于人工智能的成功以及企业实现其在提供更好的客户服务、提高生产力和加快决策方面的好处都至关重要。
并且这都不属于安全范围。