大约75年前,艾萨克•阿西莫夫(Isaac Asimov)就在他的科幻小说《环舞(Round Around)》中,就机器人的第一次提出了行为三定律:第一,机器人不得伤害人类,或不能因不作为使人类受到伤害;第二,除非违背第一定律,机器人必须服从人类的命令;第三,除非违背第一及第二定律,机器人必须保护自己。这些所谓的定律当然是阿西莫夫为了后面的故事的描写而提出的,增加了内在矛盾性,进而更有可读性。在此之后几十年以来,人们也对这三条所谓的定律,或者进行了批判,或者进行了修正和补充,前者要么认为这种定律毫无意义,不符合逻辑,要么认为其适用于人工智能(Artificial Intelligence,简称AI)会带来不可想象的危险后果。后者,包括阿西莫夫本人在内都认为,这三定律需要进行一些修改,在加上一些“元定律”,或者机器人的“繁殖定律”之后,正处于不断完善的过程中。
其实在这里,我们先不管这三定律本身是否如同有些学者的观点认为,其本身有严重的、甚至是不可弥补的逻辑缺陷,又或者根本是一种文学虚构,对于现实的经济生活毫无指导意义,我们可以从中感受的是,从这三定律的提出开始,人们已经预见到机器人这种人工智能对于人类有了责任,其自主的行为对人类的福利会产生影响。另外,甚至与萨特所认为的人对自身有责任相类似,这些人工智能的产物,现在对于人类造就的自我也有责任的承担和要求。
那么现实的问题来了,如果说以前人工智能还仅仅限于文学的构想和学术的探究当中,或者还仅限于生产的中间环节(日本和美国等国发生过工业机器人“杀人”事故),那么随着人工智能具备自主学习能力,在国际象棋和围棋领域展示出超越人类的能力,更加之人工智能在消费品领域的渗透,情况发生了极大的改变。例如,这一两年,随着自动驾驶技术的研发迅速推进,资金的进入和各大公司的涌入,尽管仍然处在实验阶段,也已经发生了几起自动驾驶汽车的安全事故,引发了法律界和社会各界的大讨论。
在全球多个国家布局的Uber公司,就希望无人驾驶汽车未来可以被引入运营。但是,在前不久的美国,一位女子在人行横道之外行走时,被行驶的Uber自动驾驶测试车辆撞到,女子被送往医院后因伤势过重身亡。事故发生后,当地警方、美国国家运输安全委员会和美国国家高速公路交通管理局均开展调查,Uber迅速宣布暂停自动驾驶路测。新闻报道指出,Uber自动驾驶车辆几乎可以完全识别出行人,但也存在受害者突然出现在车前,而车辆来不及停止的情况。受害人家属说一旦Uber被认定存在责任,“我不排除向Uber和安全驾驶员提出起诉的可能性。至于另一位自动驾驶技术的实验先锋,特斯拉公司之前在美国和中国国内分别牵涉进车辆在自动驾驶模式时人员伤亡的案例。
人工智能及使用人工智能技术的设备(如机器人)可以大幅度提高生产率,在减少人们面对的自然风险的同时,也会带来一些更大的使用风险。自动驾驶汽车可以极大限度地减少人们作为驾驶人的疏忽行为,如玩着手机、打哈欠甚至在打盹导致的安全风险,随着自动驾驶系统逐渐取代那些不遵守交通规则、疲劳驾驶的司机,更多的生命将被挽救而免于交通事故。但是这些自动驾驶的安全事故,尤其是造成人员伤亡的例子,无疑向自动驾驶产业的发展投下了阴影。
在这种背景下,界定人工智能的产品责任,明确一旦发生了事故,究竟人工智能制造者需要为此承担多大责任,就成为了一个关键的问题(Galasso 2017)。首先是消费者越来越质疑这项技术的安全性,导致他们对这项技术的信心倒退了。其次,人工智能的驾驶面临更严格的监察与批评,可能会引发监管规则的收紧。但是,这两方面的担忧会对人工智能技术的创新带来消极的影响,也就是会影响到企业技术创新的激励。
如何解决这一难题,就需要针对人工智能的特性,修订或者重新构建产品质量的责任。除了行政责任和刑事责任之外,比较重要的是针对人工智能或者智能机器人的民事责任体系的订制。按照汉斯•伦克的责任要素规则对此进行解剖,可以从责任主体、对何事负责、负责的对象、处罚/惩罚、规范准则等六个方面进行分析。首先是确立责任主体的难题,人工智能造成的损害是制造者、使用者,还是将机器人如同企业法人一样创造出一个独立的人格,这是值得探讨的问题。其次是归责原则的适用,人工智能的伤害事件中,是适用过失原则,还是现在世界各国在产品质量责任领域普遍运用的严格责任原则,对于法律公平和经济效率的权衡有着不同的影响。对于智能机器而言,不管是生产中的智能机器,还是生活中的智能机器,总的方向是对于利用智能机器的人而言,采取预防性手段的空间都更小了,不管人类和智能技术之间的关系是替代性还是互补性的(Agrawal, Gans, Goldfarb, 2017)。而在美国的Arnold诉Reuther案例当中,判例指出“一个人无论多么高效,都不是一个机械的机器人,不拥有像雷达机那样,在危险具体出现之前将其发现的能力。必须为人类的弱点和反应留出一定的余地,而如果这样的余地必须要求人类在零点几秒内做出反应,并且不能像现代机械装置那样,以机械的速度和精度做出反应”。但是,一旦将这种分析移用到自动驾驶的汽车上,一方面能否将人工智能视为“责任人”,另一方面,人工智能的反应和人的反应之间的差异如何区分,这都会影响到责任的归责。再次,各国在产品质量责任领域普遍采用的一些手段,例如保险机制能否引入并适用。第四,还有一些伦理责任方面的考量,例如,罗伯特•斯帕罗(Robert Sparrow)的研究就认为,在老龄化社会,用机器人代替人工护理,就存在伦理责任的两难,一方面这种人工质量可以使得更多的老年人得到照看,甚至有些类型的服务会做的更及时或更好,但是对于老年人的孤独来说,这种人工智能对人的替代,对与人交流机会的替代,似乎又是责任的缺失。第五,责任分担的问题,2016年的时候,联合国教科文组织的《机器人伦理的初步报告》中提出了一个责任分担的方式,让所有参与到机器人的发明、授权和分配过程中的人来分担责任。
我们似乎正处于一个人工智能爆发的前夜,其带来的影响可能可以与一次“工业革命”相媲美。随着人工智能向人类生活的核心领域的扩展,其社会经济影响范围日益宽广,几乎能使得所有部门的福利提升,人工智能的责任也就必然成为其发展过程中的关键性战略步骤了。由此产生的政策、法律和制度的框架体系既要有前瞻性,以免尾大不掉,极端的情形就是如同“天网”所导致的毁灭性打击;同时,由于这一过程存在极大的不确定性,这种框架体系也要不断地进行修正,以应对人工智能技术的新进展,甚至是新变革。阿西莫夫在《环舞》的结尾中,“斯皮迪”这个机器人最终在面对责任选择时,还是从“循环”的逻辑死节中挣脱出来,无论如何是挽救了人的生命。
参考文献
1.Hans Lenk :What is Responsibility? Philosophy Now 56:29-32 (2006)
2.Ajay Agrawal, Joshua S. Gans and Avi Goldfarb: Exploring the Impact of Artificial Intelligence: Prediction versus Judgment
3.Alberto Galasso and Hong Luo: Punishing Robots: Issues in the Economics of Tort Liability and Innovation in Artificial Intelligence