人工智能目前容易受到偏见和其他缺陷的影响。
人工智能(AI)正在或即将颠覆每个行业。项技术将带来巨大的生产力提高、成本大幅降低和研发的巨大进步。到2030年,人工智能将使全球GDP增长超过15.7万亿美元,人们很容易认为这项技术只能是一种不受约束的好东西。那将是一个危险的错误。
与任何技术一样,人工智能可能会对个人、社会和经济产生有害影响:一些常见的担忧包括,它提供的工具可能被犯罪分子利用,危害个人和组织的网络安全,或者人工智能的预测能力引发了一系列隐私问题。但是,对于人工智能来说,最危险的可能性之一,它将被用来削弱强大组织内部的责任结构,同时使现有的不公正偏见长期存在于受保护的特征上,如年龄、性别或种族。
市场往往倾向于不优先考虑个人道德和道德原则的目的。虽然在人工智能标准的开发方面有一些非常棒的举措,比如IEEE伦理一致的设计或人工智能的ISO标准,但人们不能依靠自律来让这项技术发挥作用。与其相反,人们必须通过建立符合目的的监管框架来保护其道德,这将迫使最佳做法和减少该行业的恶意活动。
人工智能的社会挑战
如前所述,人们认为使监管制度具有说服力的两个挑战是偏见问题和问责制问题。
众所周知,如果人工智能的设计、开发或部署不当,就会造成不良的社会偏见。这是因为数据固有地带有社会在整个历史中发展起来的偏见。这意味着,如果模型使用有偏见的数据进行训练,这些数据代表或不足代表某些特征、结果或群体,那么该模型最终可能会基于该偏见做出社会不公正的决策。例如,许多负责整个美国警务工作的人工智能都接受了关于犯罪与种族之间联系的现成伪造数据的培训,这导致这些模型将其决策偏向少数族裔。
对于问责制,在整个人工智能系统的设计、开发和运行中,涉及个人和组织的责任存在一定程度的模糊性。考虑被自动驾驶汽车撞倒的人员的情况,那么应该对谁负责?传统上,车辆制造商应对其车辆设计造成的损坏负责,但人工智能开辟了一个复杂的责任链,可以推卸责任:有人可以说是制造商,即签约开发驾驶人工智能的软件开发商,批准人工智能的合规性官员或批准过错的自动驾驶人工智能规范的行业组织。
可以要求一定程度责任的利益相关者网络意味着,那些因人工智能的过失而寻求赔偿或正义的人可能会面临官僚的噩梦。考虑到人工智能模型可以做出影响个人未来的重大决策,而个人无力追究组织的责任会使个人无力反抗机构的无能或恶意。
为什么监管是解决这些挑战的办法
值得庆幸的是,专家们在开发针对上述两种社会问题的工具和流程方面取得了进展。
为了减轻偏见,从事人工智能的人员知道如何在选择训练数据时更加严格。在网络安全领域,人们已经承认,尽管不可能引入使系统无法被黑客入侵的万能技术,但是可以引入流程和接触点,以确保减轻网络安全漏洞的最佳实践。
同样,在算法偏差的情况下,可以引入相关流程和最佳做法来确保减轻不希望的偏差。通过利用领域专家和人工智能可解释性技术的知识,组织能够减轻风险并将可解释性引入关键流程。这样可确保将来自训练数据的系统性偏差降至最低,从而防止模型做出歧视性决策。关于恢复问责制,人们还可以在整个人工智能生命周期中引入相关的接触点,从而将人员置于决策过程中,以确保在整个过程中都有问责制结构。
但是,人们不能指望私营企业确保上述做法得到广泛实施。取而代之的是,这些与偏见、恢复责任制和改善可解释性的最佳做法必须从外部进行激励。这就是人工智能呼吁监管环境的原因。为此,决策者和开发人员将需要团结起来,跨学科参与协作,以平衡技术、社会和法律要求。
合规性的另一个效果是,它将在现场获得更大的信心和稳定性。如果实施得当,一个良好的监管制度将迫使采用人工智能部署的最佳实践,可以创造新的工作来实施这些实践,吸引更多的行业投资,并刺激更多的创新以使人工智能变得人性化,并具有变革性。