人工智能未来最大的伦理问题:是否应该继续推动AI的极限?

人工智能(AI)正在迅速改进,成为你能想象到的几乎所有类型软件平台的嵌入式功能,并作为无数类型的数字助理的基础。它被用于从数据分析和模式识别到自动化和语音复制的一切领域。


几十年来,这项技术的潜力激发了人们的想象力,激发了科幻小说作者、企业家以及介于两者之间的所有人对人工智能驱动的未来的猜测。但随着我们越来越接近一个假设的技术奇点,我们需要牢记一些道德问题。


人工智能未来最大的伦理问题:是否应该继续推动AI的极限?_人工智能_人工智能


    失业和工作机会  


首先是失业问题。人工智能当然有能力将过去只能靠人工完成的任务自动化。


专家们认为,从一个极端来看,这有一天会对我们的经济和人类福祉造成毁灭性的影响;人工智能可能会变得如此先进和普遍,以至于它取代了大部分的人类工作。这将导致创纪录的失业人数,这可能会使经济崩溃,并导致广泛的萧条--随后,犯罪率等其他问题。


在另一个极端,专家们认为,人工智能将主要改变已经存在的工作;人工智能不会取代工作,而是会增强工作,让人们有机会提高自己的技能组合和晋升。


这里的道德困境主要在于雇主。如果你能利用人工智能来取代人类,它将提高效率,降低成本,同时也可能提高安全性,你会这么做吗?这样做似乎是合乎逻辑的举动,但在规模上,很多企业做出这些类型的决定可能会带来危险的后果。


    技术获取与财富不平等  


我们还需要思考人工智能技术的可获得性,以及它对未来财富不平等的潜在影响。目前,拥有最先进人工智能的实体往往是大型科技公司和富有的个人。例如,谷歌利用人工智能进行传统的商业运作,包括软件开发以及实验性的新事物--比如击败世界上最好的围棋手。


人工智能有能力大大提高生产能力、创新能力,甚至创造力。谁能接触到最先进的人工智能,谁就会比接触不到人工智能的人拥有巨大的、不断增长的优势。鉴于只有最富有的人和最强大的公司才能获得最强大的人工智能,这几乎可以肯定会让已经存在的财富和权力差距变得更加强大。


但有什么办法呢?是否应该有一个权威机构来发放人工智能的使用权?如果是,谁应该做出这些决定?答案并不那么简单。


    做人意味着什么  


利用人工智能来改变人类的智能或改变人类的互动方式,还需要我们考虑人类的意义。如果一个人在植入的AI芯片的帮助下展示了智力壮举,我们还能认为这是人类的壮举吗?如果我们的日常需求严重依赖人工智能的交互而不是人类的交互,会对我们的情绪和健康产生什么样的影响?我们是否应该改变对AI的态度来避免这种情况的发生?


    回形针最大化和其他AI "太厉害 "的问题  


人工智能中最熟悉的问题之一是它有可能 "太优秀"。从本质上讲,这意味着人工智能非常强大,被设计用来完成特定的任务,但其性能却会产生不可预见的后果。


通常被引用来探索这个想法的思想实验是 "回形针最大化器",这是一个被设计为尽可能高效地制造回形针的AI。这台机器的唯一目的就是制造回形针,所以如果让它自己去做,它可能会开始用有限的物质资源制造回形针,最终耗尽地球。如果你想关掉它,它可能会阻止你--因为你妨碍了它唯一的功能,制作回形针。这台机器并不是恶意的,甚至没有意识,但却能做出极具破坏性的行为。


人工智能未来最大的伦理问题:是否应该继续推动AI的极限?_人工智能_人工智能


大多数程序员直到为时已晚才会知道自己程序中的漏洞,这让这个两难问题变得更加复杂。目前,没有任何监管机构能够规定人工智能必须如何编程才能避免这种灾难,因为从定义上来说,问题是看不见的。我们是否应该不顾一切地继续挑战人工智能的极限?还是放缓我们的发展势头,直到我们能够更好地解决这个问题?


    偏差和利益不均  


当我们在日常生活中使用初级形式的人工智能时,我们越来越意识到其编码中潜藏的偏见。对话式人工智能,面部识别算法,甚至搜索引擎在很大程度上都是由类似的人口统计学设计的,因此忽略了其他人口统计学所面临的问题。例如,面部识别系统在识别白人面孔方面可能比少数族裔的面孔更好。


同样,谁来负责解决这个问题?更多样化的程序员队伍可能会抵消这些影响,但这是保证吗?如果是,你将如何执行这样的政策?


    隐私和安全  


当涉及到人工智能时,消费者也越来越关注自己的隐私和安全问题,这是有充分理由的。如今的科技消费者已经习惯了让设备和软件不断地参与到他们的生活中,他们的智能手机、智能音箱和其他设备总是在倾听和收集他们的数据。你在网络上的每一个动作,从查看社交媒体应用到搜索产品,都会被记录下来。


表面上看,这似乎不是什么问题。但如果强大的人工智能掌握在错误的人手中,它很容易被利用。一个有足够动机的个人、公司或流氓黑客可以利用人工智能来了解潜在的目标并攻击他们,或者将他们的信息用于邪恶的目的。


    邪恶天才的问题  


说到邪恶的目的,人工智能世界的另一个伦理问题是 "邪恶的天才 "问题。换句话说,我们可以采取什么控制措施来防止强大的人工智能落入 "邪恶天才 "手中,谁应该对这些控制措施负责?


这个问题类似于核武器的问题。如果哪怕是一个 "邪恶 "的人获得了这些技术,他们也会给世界带来难以估量的损失。对于核武器,建议最好的解决方案是裁军,或者限制目前各方的武器数量。但人工智能将更难控制--另外,我们会因为限制人工智能的发展而错失人工智能的所有潜在好处。


    AI权利  


科幻小说作者喜欢想象一个世界,在这个世界里,人工智能是如此的复杂,以至于它实际上与人类的智慧无法区分。专家们争论这是否可能,但我们假设这是可能的。把这种人工智能当作一种 "真正 "的智能形式来对待,是否符合我们的最大利益?这是否意味着它拥有和人类一样的权利?


这就打开了一大片伦理考虑的子集的大门。例如,它又回到了我们关于 "作为人类意味着什么 "的问题,并迫使我们考虑关闭一台机器是否有一天会被定性为谋杀。


在这份清单上所有的伦理考虑中,这是最遥远的一个。我们还远远没有达到可以让人工智能看起来像人类级智能的领域。


    技术奇点  


还有技术奇点的前景--在这一点上,人工智能变得如此强大,以至于它在每一个可以想象的方面都超过了人类的智能,做的不仅仅是简单地取代一些传统上非常手工的功能。当这种情况发生时,可以想象,人工智能将能够自我改进--而且不需要人类干预就能操作。


这对未来意味着什么?我们能否有信心,这台机器的运作会考虑到人类的最佳利益?最好的做法是不惜一切代价避免这种程度的进步吗?


这些伦理困境都没有一个明确的答案,这就是为什么它们仍然是如此强大和重要的困境,需要考虑。如果我们要在技术上继续进步,同时保持安全、道德和生产性的文化,我们需要在继续进步的同时认真对待这些问题。

27
55
0
87

相关资讯

  1. 1、ETSI发布中间盒安全协议框架规范,维护企业网络和数据中心的可见性4433
  2. 2、声纹识别技术服务商君林科技获千万级别天使轮融资!876
  3. 3、达摩院2020十大科技趋势发布:量子计算进入攻坚期,多领域技术将有突破2774
  4. 4、三星推出新款智能手表GearSport,可全面监测健康数据5026
  5. 5、希捷推出酷玩520固态硬盘,96层TLCNAND闪存颗粒4625
  6. 6、腾讯与怀来县正式签约,将建设华北最大数据中心4922
  7. 7、马库斯11条可执行的建议教你如何创造可信的AI,建立全新航道4947
  8. 8、​Led灯的优缺点详尽解释1876
  9. 9、领益智造重组完成踩地雷,逾11亿预付款或打水漂?3767
  10. 10、韩国团队根据人类耳蜗中的基底膜制造出压电式声学传感器668
全部评论(0)
我也有话说
0
收藏
点赞
顶部