模型多样性是发展道德AI系统的第一步

模型多样性是发展道德AI系统的第一步_人工智能_AI+

创建道德的AI系统经常被谈论,但是在机器学习过程中必须实现多样性的规模却常常被忽略。


在人工智能开发过程中有很多步骤,但可以归结为三个主要部分:学习,推理和自我纠正。在这些点上的每一个都涉及算法。在学习方面,用于AI模型的编程算法需要数据采集和标记。推理需要AI为特定情况选择最佳算法,然后进行自我纠正,并不断进行改进,直到达到其目的为止。


在这些阶段的每一个阶段(从计划数据收集的早期阶段到对AI的进一步改进),都有可能会潜伏到最终产品中。这些偏差通常是由于行业内缺乏多样性而引起的,并且经常导致错误,而这些错误在所谓的“功能齐全”的机器中是无法接受的。


当AI错误变成危险时


某些错误(例如聊天机器人对评论的反应很奇怪)可以被忽略。一些错误是歧视性的,例如面部识别软件对女性的作用不及男性,或者在厨房中将某人正确标记为“女性”。


但是有些错误可能是危险的。例如,2017年,在Facebook的自动翻译将“早上好”标题解释为“伤害”后,一名巴勒斯坦男子被以色列警察逮捕并受到讯问。


这些错误不仅仅是歧视性或不公平的。而且,每当AI做出决定时,都有可能产生有害的结果。任何人都可以对AI开发的整个过程负全部责任吗?


多样性:降低风险的关键


如果我们希望将道德规范整合到AI开发中,那么我们必须在流程的每个步骤中引入多样性,从数据收集一直到产品测试。


在数据收集阶段,非常重要的是如何将数据收集,处理和标记。收集数据时是否考虑了文化偏见等问题?数据可靠吗?如何处理数据,使其代表机器可能遇到的所有情况?


在收集和处理数据时,重要的是让数据科学家意识到可能存在的偏差。解决此问题的一些方法是确保从各种样本中收集足够的数据。这本身是一个漫长的过程。


从一开始,负责该过程的人员就必须提出以下问题:我们是否有足够的数据,是否存在可以使用的现有数据集,以及如何生成可以使用的数据?如果有足够的数据,我们是否需要改进现有模型?还是我们需要更多的标签数据来更好地进行机器学习?


在数据标记阶段,拥有一支多元化的标记团队可以帮助消除训练数据集的偏见,从而使数据集真正准确,高质量。提倡多样性时,大多数人通常会想到性别,但是它比这更广泛。种族,年龄,宗教,文化甚至收入可能都是影响AI应用方式的因素。


随着AI系统在决策过程中扮演更大的角色,当务之急是建立在包容性模型之上。为了做到这一点,在开发过程中发挥作用的每个人(无论大小)都必须尽自己的力量来消除偏见或意识到差距。


无论是创始人,首席执行官还是CTO,科技行业的领导者都必须营造一种多样性,好奇心和协作的工作环境。这样,我们将找到对人类真正“用户友好”的AI系统。


道德AI的重要性


看来AI并不是我们日常生活的一部分。随着AI的普及,将来要接管某些服务,正确实现这一点至关重要。


将多样性和包容性融入到流程的一部分是我们的集体责任,以便最终获得最佳模型。


87
168
0
97

相关资讯

  1. 1、社交网络依赖症:我们自己刷爆了“我和微信的故事”1075
  2. 2、品牌合作人要求升级后,短视频创作者如何正确运用小红书?4668
  3. 3、运营“圈套”实践下的细则分享728
  4. 4、怎样快速成为某个领域的“专家”?1832
  5. 5、我为什么没找到产品实习?571
  6. 6、离开人工智能谈共享汽车就是耍流氓4330
  7. 7、阿里云、腾讯云的恩怨情仇4405
  8. 8、如何对虚假流量免疫?982
  9. 9、后造星时代,Inapp们赶超Instagram的机会来了?367
  10. 10、优秀项目经理的六脉神剑3584
全部评论(0)
我也有话说
0
收藏
点赞
顶部