人工智能并不是完美的,目前已导致90%的企业出​​现“道德问题”




人工智能并不是完美的,目前已导致90%的企业出​​现“道德问题”_人工智能_人脸识别


凯捷(Capgemini)公司的一份新报告显示,90%的组织至少知道一个人工智能系统会导致其业务出现道德问题的情况。


该报告的标题为“人工智能和道德难题:组织如何构建具有道德完整的人工智能系统并获得信任”,该报告发现,尽管与数字和人工智能相关的客户互动正在增加,但客户在网络中寻求非接触或非触摸界面。在COVID-19大流行的情况下,系统任没给出相应的解决方案。


虽然三分之二(68%)的消费者期望AI模型是公平的并且没有偏见,但凯捷的调查结果显示,只有53%的组织拥有负责AI系统道德的领导者,例如首席道德官,以及仅有46%的人对其AI系统的道德影响进行了独立审核。


而且,由于AI系统做出的一些决定,60%的组织已经受到法律审查,22%的组织遭到客户的强烈反对。


面对日益严格的监管审查,道德AI的实施缺乏。欧盟委员会发布了有关设计AI应用程序时应使用的关键道德原则的指导方针,美国联邦贸易委员会(FTC)于2020年初呼吁“透明AI”。它指出,当AI的系统做出不利决定(例如拒绝信用卡申请)时,组织应向受影响的消费者显示做出决定所使用的关键数据点,并赋予他们更改任何不正确信息的权利。


然而,尽管全球有73%的组织在2019年告知用户AI决策可能对他们产生的影响,但今年这一比例已降至59%。


凯捷公司人工智能和分析事业部负责人安妮-劳尔·蒂尔伦特评论说:“鉴于人工智能的潜力,对AI的道德使用当然应确保对人类没有伤害,并在发生问题时对人类承担全部责任。但是除此之外,人工智能系统还是非常积极的追求对环境和社会做出自己应有的贡献。”


“不用担心人工智能对人类和社会的影响,我们完全有可能引导人工智能积极地对抗少数群体的偏见,甚至纠正当今我们社会中存在的人类偏见。”


该报告重点介绍了组织应该遵循的七个关键点,以建立一个道德健全的人工智能系统:明确概述AI系统的预期目的并评估其总体潜在影响;积极部署AI以造福社会和环境;在AI系统的整个生命周期中主动嵌入多样性和包容性原则;借助技术工具提高透明度;人性化AI体验并确保人工监督AI系统; 确保AI系统的技术稳健性;赋予人们权力并让他们负责AI之间的交涉,以此来保护人们的个人隐私。


1
154
0
60

相关资讯

  1. 1、王石:你没有变强只因你一直很舒服879
  2. 2、你所不知道的强大的Instagram分析工具1896
  3. 3、O2O行业的“刷单梦”该醒了3895
  4. 4、第一次踏上管理岗位,我们该如何做好一个领导的角色?2164
  5. 5、公众号的差异化运营“套路”:为什么有的可复制,有的却只能独枝一秀?641
  6. 6、语音语义技术,是大公司的护城河,还是创业者的杀手锏?4521
  7. 7、五阶段的认知迭代,让你从微运营过渡到大运营2736
  8. 8、自媒体如何正确的打广告?4907
  9. 9、知乎、快手之后,谁是下一个流量金矿?4870
  10. 10、人工智能大趋势下的选择3523
全部评论(0)
我也有话说
0
收藏
点赞
顶部