近的研究为确定人们对人工智能(AI)的信任程度提供了新的见解。由关系心理学家Omr Gillath领导的堪萨斯大学研究小组详细介绍了这种关系如何受到个人的现实生活关系或依恋风格的影响。
该团队由来自心理学、工程学、商业和医学等不同学科的各种专家组成。
该论文发表在在《计算机与人类行为》杂志上。
根据研究,如果人们担心人工智能与人类之间的现实关系,他们对人工智能系统的信任度就会降低。研究报告还详细介绍了如何通过提醒人们之间稳定的人际关系来增强对人工智能的信任。
尽管估计全球人工智能市场在2019年将达到399亿美元,但人们对于新的人工智能技术仍然高度不信任。
增加信任
研究团队不仅发现了人工智能系统缺乏信任的问题,而且还提出了增加信任的方法。关于人际关系的研究提出了一些不同的东西。
首先,预计患有依恋焦虑的人们对人工智能的信任会降低。其次,通过增强依恋焦虑,降低了对人工智能的信任。最后,当附件安全性得到增强时,对人工智能的信任也会增加。
堪萨斯大学心理学教授Gillath说,“对人工智能信任的大多数研究都集中在增进信任的认知方法上。在这里,我们采取了一种不同的方法,将重点放在‘关系情感’途径上以增进信任,将人工智能视为合作伙伴或团队成员而不是一种设备。发现依恋风格之间的关联(代表人们在亲密关系中的感觉、思维和行为的个体差异)对人工智能的信任,为获得新的理解和可能采取新的干预措施铺平了道路。”
通过研究,该团队提出了一种新的方式来研究人工智能及其周围的信任,特别是影响信任的因素。它可以在将人工智能引入工作场所和新环境方面发挥作用。
Gillath说:“研究结果表明,可以根据人工智能与人类的早期关系,预测并提高人们对非人类的信任程度。这有可能改善新技术的采用以及在工作场所中集成人工智能。”
对人工智能的不信任
人们对人工智能的不信任并不是什么新鲜事。在过去的几年中,人们对该技术及其实施方式一直持怀疑态度。这并不是没有道理的,因为多年来导致了各种问题以引起这种不信任。
就在最近,一些世界顶级机构的国际科学家批评了人工智能研究缺乏透明度。早在2019年6月,美国就发现了第一个因算法错误而被错误逮捕的案件。还有更多的例子,例如计算机视觉的偏见以及政府将人工智能用于战斗和监视。
尽管所有这些示例似乎都与个人在人工智能方面的亲身经历相去甚远,但它们无疑在形成对该技术的整体认知中发挥了作用。堪萨斯大学即将开展的新研究为解决其中一些问题提供了急需的见识。