凯捷(Capgemini)公司的一份新报告显示,90%的组织至少知道一个人工智能系统会导致其业务出现道德问题的情况。
该报告的标题为“人工智能和道德难题:组织如何构建具有道德完整的人工智能系统并获得信任”,该报告发现,尽管与数字和人工智能相关的客户互动正在增加,但客户在网络中寻求非接触或非触摸界面。在COVID-19大流行的情况下,系统任没给出相应的解决方案。
虽然三分之二(68%)的消费者期望AI模型是公平的并且没有偏见,但凯捷的调查结果显示,只有53%的组织拥有负责AI系统道德的领导者,例如首席道德官,以及仅有46%的人对其AI系统的道德影响进行了独立审核。
而且,由于AI系统做出的一些决定,60%的组织已经受到法律审查,22%的组织遭到客户的强烈反对。
面对日益严格的监管审查,道德AI的实施缺乏。欧盟委员会发布了有关设计AI应用程序时应使用的关键道德原则的指导方针,美国联邦贸易委员会(FTC)于2020年初呼吁“透明AI”。它指出,当AI的系统做出不利决定(例如拒绝信用卡申请)时,组织应向受影响的消费者显示做出决定所使用的关键数据点,并赋予他们更改任何不正确信息的权利。
然而,尽管全球有73%的组织在2019年告知用户AI决策可能对他们产生的影响,但今年这一比例已降至59%。
凯捷公司人工智能和分析事业部负责人安妮-劳尔·蒂尔伦特评论说:“鉴于人工智能的潜力,对AI的道德使用当然应确保对人类没有伤害,并在发生问题时对人类承担全部责任。但是除此之外,人工智能系统还是非常积极的追求对环境和社会做出自己应有的贡献。”
“不用担心人工智能对人类和社会的影响,我们完全有可能引导人工智能积极地对抗少数群体的偏见,甚至纠正当今我们社会中存在的人类偏见。”
该报告重点介绍了组织应该遵循的七个关键点,以建立一个道德健全的人工智能系统:明确概述AI系统的预期目的并评估其总体潜在影响;积极部署AI以造福社会和环境;在AI系统的整个生命周期中主动嵌入多样性和包容性原则;借助技术工具提高透明度;人性化AI体验并确保人工监督AI系统; 确保AI系统的技术稳健性;赋予人们权力并让他们负责AI之间的交涉,以此来保护人们的个人隐私。