哲学家彼得·辛格(Peter Singer)认为,会感到疼痛的生物都应该拥有道德感。他认为非人类动物也具有道德立场,因为它们会感到痛苦。
随着真正的人工智能技术的发展,道德地位问题变得越来越重要。如果认可机器人具有道德地位,那么它们就拥有生命权。这意味着您不能简单地拆除它们。
IBM的深蓝色国际象棋机器经过训练,可以击败大师级加里·卡斯帕罗夫。但这也并不表明它有自己的思想,深蓝象棋机器人具通过计算机编辑的具有特定领域智能的机器人。
另一方面,有一种智力可以使自己做好各种事情。这称为领域通用情报。这就是让人们做饭,滑雪和抚养孩子-这些任务既相关,又非常不同。
人工智能(AGI)是具有领域通用情报的机器的术语。可以说没有机器能够显示出这种智能。今年夏天,一家名为OPENAI的初创公司发布了其Generative Pre-Training语言模型的新版本。GPT-3是一种自然语言处理系统,经过培训可以读写,因此人们可以轻松理解。
这不仅是因为它具有模仿风格和合理组合内容的能力,还因为它与先前版本相距甚远。尽管有如此出色的性能,但GPT-3除了如何以各种方式将单词串在一起之外,实际上并不知道任何其他信息。
图灵测试以具有开创性的AI研究人员艾伦·图灵(Alan Turing)的名字命名,可帮助确定AI何时智能。与隐藏的AI对话的人能否分辨出是AI还是人类?
意识有两个部分
首先,是体验的“我”方面,即意识的感官部分。哲学家称这种现象意识。这是关于您如何体验一种现象的,例如闻到玫瑰的气味或感到疼痛。
相比之下,还有访问意识。这就是报告,推理,行为和行动的能力,以协调和响应的方式对基于目标的刺激做出反应。例如,当我将足球传给我的朋友在球门上打球时,我是对视觉刺激做出反应,从先前的训练中表演,并追求由比赛规则确定的目标。我会在比赛流程中自动进行传球,而无需深思熟虑。
盲人很好地说明了两种意识类型之间的区别。例如,患有这种神经系统疾病的人可能会报告说,他们在视野的左侧看不到任何东西。但是,如果要求他们从视野左侧的一系列物体中拿起笔,他们可以可靠地这样做。他们看不到笔,但是在提示时可以拿起笔-这是无意识的访问意识示例。
android数据表明他具有自我意识,因为他可以监视自己是否处于最佳状态(例如,他是否处于最佳充电状态)或机械臂是否受到内部损坏。
数据在一般意义上也是智能的。他在较高的水平上做了很多不同的事情。他可以驾驶企业,接受上尉的命令,并与他一起商讨最佳路线。
他还可以和他的船东玩扑克,做饭,与亲密朋友讨论热门话题,与外星人的敌人战斗以及从事各种形式的体力劳动。数据具有访问意识。
但是,数据极有可能缺乏意识-例如,他不喜欢玫瑰的香味或感到疼痛。他体现了视力的超大版本。他具有自我意识,具有访问意识-可以握笔-但在所有感官上他都缺乏明显的意识。
现在,如果数据不感到痛苦,那么至少Singer提供给生物的道德地位的原因之一就无法实现。但是即使没有痛苦,数据也可能满足遭受痛苦的其他条件。痛苦可能并不需要痛苦本质上那样的惊人意识。
例如,如果苦难也被定义为在追求正义的过程中受到挫败而又不伤害他人的想法呢?假设数据的目标是解救他的船员,但由于四肢受伤,他无法接近她。数据功能的减少使他无法挽救船员,这是一种非现象性的痛苦。他本来希望挽救船员的,如果他这样做的话,情况会更好。
问题最终不是基于数据是否具有自我意识,这是毫无疑问的。他是否有才智也不成问题–他很容易证明自己具有一般意义。目前尚不清楚他是否具有非凡的意识。数据不会被拆除,因为最终,他的人类法官无法就意识对于道德立场的重要性达成共识。
人工智能应该获得道德吗?
数据是善良的-他的行为是为了支持他的船员以及他在外星球遇到的人的福祉。他服从人民的命令,似乎不太可能伤害他们,而且他似乎在保护自己的存在。由于这些原因,他显得和平而容易接受具有道德地位的事物的领域。
您不能仅仅因为一个AI违背人类意愿或违背另一个AI的利益,就说它没有道德立场。现在是时候考虑赋予他们道德上的地位了。