当自动驾驶汽车撞到行人时,谁应被追究法律责任?承担责任的应该驾驶车辆的人工智能(AI)软件的所有者,制造商还是工程师?
随着这种创新在行业中的使用量增加,决定由机器人或人工智能实现的决策“风险”的问题是一个引人入胜且重要的课题,并开始更加直接地影响我们的日常生活。
可以肯定的是,随着人工智能和机器学习创新应用的发展,我们可能将观察它如何改变工作,组织,企业和社会的观念。但是,尽管事实上它具有破坏能力并提高效率的能力,但AI还是有缺点:“其中有人误入歧途是谁的危险”就是其中之一。
道路交通事故是造成意外死亡的主要原因之一,也是为什么应更迅速地采用自动驾驶汽车的主要支持论点之一。尽管在诸如新加坡,韩国和欧洲等许多地方的预备赛取得了进展,但诸如AI之类的尖端进步的努力却难以为风险分配风险的举足轻重。
在TechLaw的第三年度版中。最近在Fest论坛上举行的专家们说,由于人工智能或机器人技术等事故造成的不幸或破坏,新加坡法律目前尚无足够的风险任命能力。
自主机器人和AI框架在无人参与的情况下独立工作的非凡能力使责任感蒙上了阴影。”新加坡法律学院机器人与人工智能小组委员会联合主席Charles Lim说道。
由机器人和人工智能小组11个部分组成的小组,最近在一个月前发布了有关在这种情况下应建立民事赔偿责任的报告。新加坡尽管在2019年国际发展研究中心的政府人工智能就绪指数中排名第一,但实际上并没有建立法律框架来监督由机器人或AI引起的责任,包括自动驾驶汽车(AV)的民事责任。
他说:“有很多不同的因素,例如,AI框架的底层软件代码,准备的信息以及框架的外部环境。” Lim是法律顾问和联合主席新加坡法学院机器人与人工智能小组委员会。
这种情况非常令人迷惑,事故是否可能是由于非活动错误,最近的软件更新所引起的错误,还是受道路状况的影响。在网络研讨会上以个人身份发言的林说,按照事件的确切顺序为事故证明责任进行认定可能是不可预测的,而且成本很高。
专家小组成员,机器人技术和AI小组委员会成员Josh Lee认为,立法者的第一步可能是理清在驾驶员座位上每个人的责任认定。
他说:“我们建议将此人称为'负责人',因为该人可能未完成驾驶任务,但在必要时拥有可接管的能力。” “在当今的许多情况下,例如医疗诊断,这可能会在无人驾驶汽车上得到应用。”
联合国法律委员会于2018年首次提出“负责人”一词,该建议被推迟,以将此类用户置于一个独立的完全自动化的监管制度下。