组织如何在道德上接受人工智能?
A级考试和普通中等教育证书(GCSE)考试的惨败暴露了使用算法做出复杂、改变生活的决定的重大问题。随着人们越来越依赖人工智能和自动化,“智能”系统解决问题的可能性就越大。人工智能并非都是坏事,近期的问题也不会阻碍其发展,相反,各组织仍在加速人工智能技术的发展,以期迅速实现价值。
那么,人工智能技术在企业和公共部门机构中的快速渗透是否意味着人们可以在其分析团队中部署人才?经验表明,人们可以轻松地将新技术融入他们的工作和生活中。人工智能和自动化也不例外。通过适当使用算法,人工智能确实有潜力帮助人们在工作场所做出更好的决策。
拥抱人工智能技术要求组织从上至下了解其数据和算法如何工作。需要进行人为监督,以免出错并确保决策符合道德。A级考试的产生并不是由算法本身引起的,而是由于缺乏监督和对输入的输入类型的偏见的考虑。
负责任地培训人工智能负责
许多组织在实施人工智能技术时并未考虑其影响。他们必须在设计、开发和集成人工智能方面承担巨大的责任和关怀,以确保每个人都能从这些进步中受益。
人工智能容易受到内在和外在的偏见、逻辑上的空白以及一般算法复杂性的影响。偏差会以多种方式潜入算法,包括人为错误。再次提及A级问题:如何处理小班授课。少于15名学生?老师的建议很重要。少于5名?使用老师推荐的成绩。从统计上讲,由于数量少,这似乎是明智的。但是没有人考虑过哪种类型的学校班级规模较小:私立学校。统计人员的选择忽略了数据的人为因素。
数据治理:通过数据构建人工智能完整性
数据专业人员在使人工智能具有伦理价值方面可以发挥关键作用。可以忘掉围绕着人工智能的大肆宣传,记住垃圾输入会产生垃圾输出。
严格的数据治理是成功实施人工智能的基础。很简单,如果对组织中用于训练人工智能或提供给人工智能进行分析的数据没有很好的监督,总是会冒着不准确的输出和决策的风险。另一个严肃的例子得到了证明,当人工智能对人脸照片进行去像素处理时,通常会将黑人的脸变成白色的脸。该算法本身可能没有错:它的决策基于其训练数据,该训练数据包含更多的白色而不是黑色的面孔。
组织对数据治理的看法还需要仔细研究提供给其数据的算法提供商所采用的严格性。如果依靠算法,从而依靠外部数据集对人工智能进行外部培训,那么这些提供者是否会记录自己的数据治理?他们遵守哪些标准?如果答案是否定的或不清楚的,将如何信任他们的算法结果。只是不接受将人工智能放在封闭的盒子里;要求查看其工作原理,并挑战用于创建他们为组织提供的人工智能的数据治理的质量。
调节人工智能是另一条途径。行业将需要围绕伦理人工智能使用的开发和认证创建标准化。Gartner公司已经预测,到2023年,将在G7国家中建立一个自我监管的人工智能监督协会,并且机器学习设计师将建立。
商业领袖和关键决策者有责任鼓励研究和标准方面的进步,以减少人工智的偏见,从而有望为人类协作创造一种更加透明和符合道德的技术。