尽管人们在科幻小说中看到了人工智能带来的神奇力量,但人工智能(AI)不可能生产出能占领地球,统治人类或改变地球食物链层次具有感知的机器,人工智能也不是人类的救星。
人工智能在本质上等同于机器执行通常需要人工推理的任务的能力。人工智能的概念已经存在60多年的历史,现代人工智能系统正在彻底改变人们的生活和工作方式。但是,传统的人工智能解决方案并未充分利用该技术的潜力。
通常在“黑盒”中做出决定
常规的人工智能解决方案在“黑盒”内部运行,无法解释或证实其推理或决策。这些解决方案依赖于复杂的神经网络,这些网络对于人类来说太复杂了。使用传统人工智能方法的企业都陷入了困境,因为它们不知道系统如何或为什么得出结论,并且大多数人工智能开发商拒绝透露或无法透露其技术的内部运作方式。
但是,这些“智能”系统通常并不是那么智能。他们可以处理非常大的复杂的数据集,但不能采用类似人类的推理或解决问题的方法。他们将数据视为一系列数字,根据其训练方式标记这些数字,并依靠识别来解决问题。当显示数据时,传统的人工智能系统会问自己是否查看过该信息,如果是,则最后一次如何标记该数据。除非它能够与操作人员进行通信,否则它无法实时诊断或解决问题。
确实存在这样的场景,其中人工智能用户可能不那么担心收集有关推理的信息,因为其负面结果的影响很小,例如根据消费者的购买或观看历史来推荐商品的算法。但是,在金融、医疗保健和能源等高价值、高风险行业中,信任以黑盒为基础的人工智能的决策都有问题,在这些行业中,可能会要求机器为其提供建议以推荐数百万美元的投资,
边缘条件不完善使事情复杂化
企业越来越多地部署人工智能系统,以监视在互联网连接偏远环境中的物联网设备。例如高速公路摄像头、勘测农田的无人机或大洋中部的石油钻井平台基础设施。制定了物联网战略的企业中有四分之一也正在投资人工智能。
认知人工智能解决了这些问题
认知人工智能解决方案通过采用类似于人类的问题解决和推理技能来解决这些问题,这些技巧可以使用户看到黑盒。它们不会替代传统解决方案所应用的复杂神经网络,而是会解释其输出并使用自然语言声明来提供人类可以理解的带注释的叙述。认知人工智能系统了解它们如何解决问题,也了解与信息相关的场景。因此,人类用户可以通过认知人工智能而不是被要求隐含地信任机器的结论,而实际上可以获取审计追踪,以证据、风险评估、确定性和不确定性来证实系统的建议。
人工智能系统生成的“可解释性”级别基于其用例。通常,风险越高,就越需要解释。强大的认知人工智能系统应该具有自主权,可以根据谁在查看信息以及在何种情况下调整其解释的深度。
决策树形式的审计追踪是说明建议背后的认知人工智能推理过程的最有用方法之一。决策树的顶部表示解释决策过程所需的最少信息,而决策树底部则表示涉及最多细节的解释。因此,可解释性可分为自上而下或自下而上两类。
自上而下的方法适用于不需要复杂细节的最终用户,只是关于答案是否正确的“正”或“负”参考点。例如,管理人员可能认为太阳能发电场的发电面板工作不正常,只需要知道太阳能面板的状态即可;认知人工智能系统可以围绕其面板当前状态下会产生多少电能来产生预测。
另一方面,自下而上的方法对于派遣解决这一问题的工程师会更有用。这些用户可以在其决策树的任何位置查询认知人工智能系统,并获得详细的信息和建议以解决该问题。
如果对人工智能的最终期望是实现其对社会转型的承诺,那么人类用户必须对信任机器生成的决策的想法感到满意。可解释的人工智能使这成为可能。它打破了组织孤岛,弥合了IT人员与组织的非技术执行决策者之间的鸿沟,从而在治理、合规、风险管理和质量保证方面实现了最佳有效性,同时提高了责任感。