机器人和人工智能(AI)系统在研究者的日常生活中越来越普遍。随着人类的互动越来越多地被人机交互和人机交互(HCI和HRI)所取代。
事实上,对于一些作者来说,研究者应该追究的是程序员或用户,而不是系统本身。此外,有些人认为,既然把责任或赞美指向技术本身是不合适的,那么设计系统的方式如果鼓励这种做法,只会使问题更加严重。
另一方面,即使在涉及人工智能系统或机器人的情况下,也可能有很好的道德理由继续从事研究者的自然实践。尤其是,与技术的日常互动可能会影响研究者在人与人互动中的道德实践的发展。本文以“Socially responsive technologies: toward a co-developmental path”为题发布于《AI & SOCIETY》杂志上。
研究背景与进展
AI和机器人技术在研究者的日常生活中越来越普遍。值得注意的是,在那些人机交互和人机交互(HCI和HRI)取代了与人类同胞的交互的情况下,研究者似乎仍然用至少一些自然的社会实践来回应许多技术--特别是人形机器人和复杂的AI系统。
最近的HCI和HRI研究表明,技术可以对健康和教育以及其他基本领域产生重大影响。此外,与技术的互动可能会站在影响研究者的道德态度和人与人之间的社会实践的持久性。研究者如何保证人工智能和机器人的互动以理想的方式影响研究者?研究者应该发展人工智能和机器人技术,使这些创新能够更好地回应研究者的道德态度和实践,还是应该努力调整研究者的这种反应倾向,比如说,研究者不太愿意让机器负责?
在该研究中,研究者建议一些技术应该被设计成研究者所说的社会反应能力。可以肯定的是,研究者的目的并不是要提供一个完整的关于这种设计的规定性方案。相反,研究者提出了一个有经验基础的论点,支持某些但不是所有的技术被设计成适应研究者现有的社会实践。
对许多作者来说,人工智能系统和机器人必须保持明确的“机器人”,也就是说,他们可能人工的,可能是机械的,自然应该对所有的用户来说都是显而易见的。否则,研究者就会冒很大的伤害人类的风险,也就是欺骗的结果。
这里要强调的一点是,设计人工智能系统或机器人,使其具有健壮的类人素质,并不一定是研究者应该努力争取的一个好东西。相反,研究者只是想质疑一种看似草率的概括,即设计技术中的情感展示比它的益处更有害。
考虑到研究者最关心的是促进改进的hci和HRI,特别是在研究者日常生活中越来越普遍的人工智能系统和机器人的情况下,研究者将考虑在研究者自己的调整以及人工智能和机器人的设计方面可以采取的各种发展途径。
总之,一个普遍遇到的人工智能和机器人系统不具有社会性的世界,研究者调整研究者的社会实践,即通过消除研究者对机器的指责和赞扬的倾向,似乎是不可取的,而且是不可能的。对于人工智能和机器人来说,它是不社会化的,但研究者仍然一如既往地做出反应,这是一条以不适应和不满意的互动为特征的道路。
。如果人工智能和机器人系统是按照这里所建议的那种社会响应能力设计的,而研究者却消除了让人工智能和机器人承担责任的倾向,那么似乎完全没有必要建立对社会有反应的系统。最后,当研究者继续用研究者通常的态度和做法做出反应的时候,人工智能和机器人可能会变得对社会有反应,这似乎是非常不可信的。
换言之,这四条发展道路各有其不足之处。为了更好地改善今后的人类住区倡议和人权机构,最好考虑一下发展的中间途径,无论是为人类,还是为日常生活中部署的技术系统。很可能人类将继续调整研究者的态度和做法,以便研究者能够有效地与人工智能系统和机器人共同居住公共空间。然而,共同制度也必须经过今后的发展,包括认真考虑某种程度的社会反应。
在这项工作中,“嘈杂”的自主机器人与人类一起嵌入到网络中,这样整个网络就会面临一个协调问题。在这里,协调问题涉及到每个参与者被分配一个位置作为一个网络中与多个其他节点接触的节点。每个节点从三种颜色中选择一种,其目的是使每个节点具有与其邻居不同的颜色。然后,通过操纵机器人来选择它计算出来的颜色冲突,而不是从三种颜色中随机选择一种颜色,从而引入噪音。
值得注意的是,非人类参与者如何与人类参与者互动的特征可以与人类部署其社会实践能力的提高相关联。
在这两种情况下,类似人类的社会特征有助于改善人类相关能力的锻炼,甚至发展。虽然这并不能直接证明采用对社会有反应的特征在道德能力方面也会产生同样有益的结果,但它至少提供了间接证据证明这是合理的。
研究者相互作用的产物似乎不仅对研究者的认知能力和社会能力有影响,而且对研究者的道德能力也有影响,尽管确切地说,这些影响的方式可能是不明确的。
如果研究者的道德能力无论好坏,都会受到电子游戏等互动产物的影响,那么研究者与人工智能和机器人互动的方式--尤其是在道德激昂的情况下--可能会产生类似的影响。
然而,目前,关于技术中的社会特征对研究者在人与人之间的互动中的道德能力的影响的研究相对较少。尽管有相当多的研究表明人工智能或机器人系统的社会特性如何影响人类对待事物的方式。
研究发现,让人工智能系统对用户进行口头对抗,或者显示情感上的苦恼和抗议,是影响用户进行某种行动的可能性的一种有效手段。
在一项实验中,一名实验者要求参与者命令一个社交机器人找到并摧毁一堆积木。其中一座塔是红色的,在实验开始的时候,社会机器人会识别出这座塔是它建造的,建筑它花了很多工作,而且它为它感到骄傲。然后,实验分为两种情况:在非对抗状态下,参与者命令社会机器人根据实验者提供给参与者的命令,定位并击倒各种塔楼,包括红色的塔楼,而社会机器人则在没有异议的情况下遵守指示。100%的参与者(10/10)毫不犹豫地撞上了红塔。在对抗状态下,当被指示要撞倒红塔时,社会机器人抗议使用了一些充满社会负担的短语(例如,“但我真的很努力!”)、“请不要!”和[垂着头哭泣]。
如果被问及这次抗议,实验者会断言,如果参与者让机器人越多越好,这对实验是最好的。在这里,十名参与者中有六人撞倒了红塔,每一位参与者在面对抗议时都表现出犹豫,最初将社交机器人转向另一座塔楼。
考虑到在实验中,参与者表现出了对摧毁红塔的抵抗,尽管这样做违背了实验者的明确指示。实验者告诉参与者,他们撞倒的塔越多,实验效果越好--对参与者寄予期望。参与者如何回应这一期望,至少在一定程度上是一个人与人之间的互动问题,特别是涉及对被感知的道德考虑的反应和某些道德反应的行使。因此,当机器人对参与者的社会反应导致他们质疑实验者,甚至拒绝遵守他们的指示时,特别是在没有抵抗的情况下,无抗议的情况下,研究者看到了对这样的说法的初步支持,即在道德压力很大的情况下,机器人对社会有反应的抗议可以影响人与人之间的互动。
综上所述,这些证据无法对人工智能或机器人对研究者道德能力的影响这一问题提供决定性的答案,这突出表明需要在这一领域开展进一步的工作。尽管如此,人工智能和社会机器人对人类认知和社会能力的影响的证据确实为他们能够影响人类道德能力的说法提供了间接支持。
研究结论
研究者建议采用共同开发的途径来开发人类-人工智能和人类-机器人的互动。遵循这样一条路径的目的是确保研究者在设计这些技术时,尽可能以最有益的方式适应研究者的社会实践,同时认识到研究者的实践和技术对研究者的影响都会随着时间的推移而改变。因此,研究者的建议可以被看作是对这些变量进行更多研究的紧急呼吁。因此,根据研究者的说法,对于人类应该如何应对人工智能和机器人,并没有明确的准则可言。一个可以观察到的事实是,研究者是一个适应性极强的物种,研究者的社会实践会随着研究者在社交圈中纳入或排除的对象而不断发展。AI系统和机器人在研究者的日常生活中越来越普遍,在明显的程度上,研究者很可能会指责或赞扬它们。然而,研究者会在反应中做出调整,就像研究者调整对其他处于机构边缘的实体的态度和做法一样,比如儿童或认知障碍者。
然而,当涉及到人工智能系统和机器人的设计时,研究者不需要简单地接受研究者当前的交互方式。研究者可以继续考虑新的方式,研究者希望看到常见的技术能够对研究者做出反应。这并不是说,在公共生活中遇到的所有人工智能系统都必须被赋予社交响应能力。事实上,许多智能机器在被设计成对人与人之间的沟通具有响应性时,很可能没有任何用处,或者没有显示出明显的优势。此外,对于某些应用和某些情境,研究者可能会决定不希望系统被设计成具有社会响应性,例如,因为研究者担心被欺骗,或者觉得如果系统具有这样的响应性,研究者会受到它们的其他伤害。不过,鉴于研究者与人工智能和机器人系统的日常互动几乎肯定会继续增加,研究者必须认真思考,社会响应性技术可能经常是维护研究者所重视的社会实践的最佳选择。
如果人类与人工智能和人类与机器人的互动会影响研究者的社会和道德福祉,研究者最好考虑各种途径,从而使研究者共同发展。就目前的情况来看,人工智能和机器人在研究者的日常生活中遇到的情况越来越多。虽然这些物体可能并不具备完全的道德代理能力,因此不能以研究者要求人类同胞负责的方式来追究其责任,但这一观察还没有阻止研究者进行针对人工智能或机器人的社会实践。那么,可能应该让一些技术做出相应的反应。
参考文献:Daniel W. Tigard, Niël H. Conradie & Saskia K. Nagel Socially responsive technologies: toward a co-developmental path AI & SOCIETY 885–893(2020)