我们每天都可能与某种形式的人工智能(AI)互动。从社交媒体和交通导航应用到产品推荐和虚拟助理,它在幕后运作。人工智能系统可以执行任务或做出预测、建议或决策,而这些通常都需要人类智能。它们的目标是由人类设定的,但系统的行为没有明确的人类指令。
随着人工智能在我们的工作和家庭生活中发挥越来越大的作用,问题也随之出现。我们有多愿意相信人工智能系统?我们对人工智能应该如何部署和管理的期望是什么?为了找到答案,我们在2020年6月和7月对2500多名澳大利亚人进行了全国性抽样调查。报告由毕马威(KPMG)联合撰写,由妮可•吉莱斯皮(Nicole Gillespie)领导。报告显示,澳大利亚人总体上对人工智能的使用知之甚少,对人工智能系统几乎没有信心,认为应该谨慎监管。
大多数人接受或容忍人工智能,很少有人赞同或接受它
信任是人工智能被广泛接受和采用的核心。然而,研究表明,澳大利亚公众对人工智能系统的信任是矛盾的。
近一半的受访者(45%)不愿意与人工智能系统分享他们的信息或数据。五分之二(40%)的人不愿意依赖人工智能系统的推荐或其他输出。
此外,许多澳大利亚人不相信人工智能系统的可信度,但更多的人可能认为人工智能是胜任的,而不是设计的完整性和人性。
尽管如此,澳大利亚人普遍接受(42%)或容忍(28%)人工智能,但很少有人赞同(16%)或接受(7%)人工智能。
人工智能比业务更受研究和国防的信任
在开发和使用人工智能系统方面,我们的受访者对澳大利亚的大学、研究机构和国防组织最有信心。认为它们会出于公众利益而这么做。(超过81%的受访者至少有适度自信。)
澳大利亚人对商业组织发展和使用人工智能的信心最低(37%的人没有信心或信心很低)。这可能是因为大多数人(76%)认为商业组织使用人工智能是为了经济利益,而不是社会利益。
这些发现表明,企业有机会与更值得信赖的实体(如大学和研究机构)合作,以确保人工智能的开发和部署符合道德和值得信赖的方式,并保护人权。他们还建议,企业需要进一步考虑如何以更广泛的方式使用人工智能,为利益相关者和社会创造积极的结果。
监管是必需的
绝大多数(96%)的澳大利亚人希望人工智能受到监管,大多数人希望得到外部、独立的监督。大多数澳大利亚人(超过68%)对联邦政府和监管机构以公众的最佳利益来监管和管理人工智能有中度到高度的信心。然而,现行的法规和法律并没有达到社会的期望。
研究结果显示,对人工智能最强大的信任驱动因素是相信当前的法规和法律足以使人工智能的使用安全。然而,大多数澳大利亚人要么不同意(45%),要么是矛盾的(20%)。
这些发现强调了在澳大利亚加强管理人工智能的监管和法律框架的必要性,并向公众传达这一点,以帮助他们对人工智能的使用感到舒适。
澳大利亚人希望人工智能能够在道德上得到部署
人工智能系统部署后,澳大利亚人期待什么?大多数受访者(超过83%)对他们期望企业在设计、开发和使用人工智能系统时所坚持的原则和实践有明确的期望,以获得信任。
这些包括:
高标准的鲁棒性能和准确性
数据隐私、安全和治理
人的作用和监督
透明度和explainability
公平、包容和非歧视
问责制和可竞争性
减少风险和影响。
如果有保障机制来加强标准和监督,大多数澳大利亚人(超过70%)也会更愿意使用人工智能系统。这些包括独立的人工智能伦理审查,人工智能伦理认证,人工智能可解释性和透明度的国家标准,以及人工智能行为准则。
通过明确支持和实施道德实践、监督和问责制度,组织可以建立信任,让消费者在适当的时候更愿意使用人工智能系统。
人工智能知识鸿沟
大多数澳大利亚人(61%)表示对人工智能的了解程度很低,包括不清楚如何和何时使用人工智能。例如,尽管78%的澳大利亚人使用社交媒体,但近三分之二(59%)的人不知道社交媒体应用程序使用人工智能。只有51%的人表示在过去的一年里听到或读到过人工智能。考虑到人工智能在我们日常生活中的使用,这种低意识和低理解是一个问题。
好消息是,大多数澳大利亚人(86%)想要更多地了解人工智能。当我们综合考虑这些因素时,我们有必要也有兴趣在人工智能领域开展公共扫盲项目。
其中一个模式来自芬兰,该国政府支持的人工智能素养课程旨在教授500多万欧盟公民。到目前为止,已经有超过53万名学生注册了这门课程。
总的来说,研究结果表明,通过加强管理人工智能的监管框架,不辜负澳大利亚人对值得信赖的人工智能的期望,以及加强澳大利亚的人工智能素养提高公众对人工智能系统的信任。