如果AI机器人杀了人类 这个锅谁来背?

发布时间:2018-03-19 11:20:00 来源:论坛 作者:环球网

  AI如今越来越火,但是,如果AI真的成为日常生活中的一部分,那么,当AI不小心杀了人,那责任该谁来承担呢?

    不妨想象一下:今年是2023年,自动驾驶汽车终于在我们的城市街道上行驶了。然而,这也是自动驾驶汽车第一次撞击一名行人并致其死亡,媒体对此进行了广泛报道。一个备受瞩目的诉讼案很有可能发生,但是这个事件应该适用什么样的法律呢?

  今天,基于英国布莱顿大学John Kingston的相关研究,我们得到了一些答案——他在这个刚刚开始的法律领域做出了一些探索。他分析指出了汽车、计算机和法律领域人士应该认真对待的重要议题。如果他们还没有开始思考这些问题,现在也是时候准备了。

  这场争论的核心是,人工智能系统是否可以为其行为承担刑事责任。Kingston说,以色列Ono Academic College的Gabriel Hallevy对这个问题进行了深入探讨。

  现行法律可能适用于AI的三个场景

  刑事责任通常需要一个行动和一个心理意图(在法律术语中可以表述为一种犯罪行为和犯罪意图)。Kingston说,Hallevy探索了三种可能适用于人工智能系统的场景。

  第一种被称为“通过他者犯罪的肇事者”(perpetrator via another),患有精神疾病的人或动物犯下罪行时适用,他们也因此被认为是无辜的。但是,任何指使过精神病人或动物的人都可以被追究刑事责任。例如,一条狗的主人命令其攻击另一个人。

  这对那些设计和使用智能机器的人来说意义深远。Kingston说:“人工智能程序可以被认为是无辜的代理,而软件程序员或者用户则可以被认为是‘通过他者犯罪的肇事者’。”

  第二种情形是所谓的“自然可能后果(natural probable consequence)”,当人工智能系统的一般行为可能被不适当地用于执行犯罪行为时。

  Kingston举了一个例子,一个人工智能机器人在日本摩托车工厂里杀死了一名人类工人。Kingston说:“机器人错误地将这个员工认定为对它执行任务构成威胁的人,并计算出消除这种威胁最有效的方法,即将其推入相邻的操作机器。机器人用它强大的液压臂把陷入惊恐的工人砸到机器上,并致其当场死亡,然后继续执行工作任务。”

  这里的关键问题是,设计机器的程序员是否知道这个局面是机器使用可能带来的后果。

  第三种情况是直接责任(direct liability),这同时需要行动和意图。如果人工智能系统采取了导致犯罪行为的行动,或是在有义务采取行动时未能采取行动,那么这就很容易证明了。

  不过Kingston也表示,这一行为的意图更难确定,但仍然是相关的。“超速行驶是一种严格的责任犯罪,”他说。“所以,根据Hallevy的说法,如果一辆自动驾驶汽车被发现在道路超速行驶,那么法律很可能会对当时正在驾驶汽车的人工智能程序追究刑事责任。”在这种情况下,车主可能不承担责任。

* 声明:本文章为网友上传文章,如果存在出处、来源错误,或内容侵权、失实问题,请及时与我们联系。本文仅代表原媒体及作者观点,不代表比特网立场。
聚焦 新闻 美食 健康 科学 游戏

发表评论

热图推荐

比特焦点

顶部 底部