典型案例

您当前所在的位置:首页 > 维权服务 > 典型案例

人工智能需不需要承担民事责任?
阅览次数:1390        发布时间:2017-8-22 16:27:49

 

 

随着自动驾驶汽车等智能机器人的自主性、学习和适应能力不断增强,一方面很难将其看作是人类手中的简单工具;另一方面伴随而来的可预测性、可解释性、因果关系等问题将使得证明产品缺陷责任等既有侵权责任变得越来越困难,可能带来责任鸿沟,使得被侵权人的损害难以得到弥补。

 

面对可预期的责任挑战,侵权法、合同法等法律规则的不充足性和局限性将逐渐显现出来,对新的法律规则的需求也将变得越来越迫切。为此,欧盟、英国、美国等已经开始探索新的责任框架。

 

为了更合理、有效地对智能机器人造成的损害分配法律责任,严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都是潜在的法律方案;但立法者或者法院最终选择何种方案,需要进行全方位的论证,以便实现法律的利益平衡目的。

 

 

 

01

 

引言

 

 

“计算机仅能执行强制的指令——对其编程不是为了使其作出判断。”纽约一家法院曾经如是说。这或许可以代表公众对计算机和机器人的固有看法。但是,人工智能技术的进步,正使这一观点变得陈腐,甚至可能成为一个偏见。2010年以来,受到大数据、持续改进的机器学习和更强大的计算机这三个相互加强的因素推动,人工智能技术在ICT领域快速发展,不断被应用到自动驾驶汽车、医疗机器人、护理机器人、工业和服务机器人以及互联网服务等越来越多的领域和场景。国外一些保险和金融公司以及律师事务所甚至开始用具有认知能力的人工智能系统置换人类雇员。从国际象棋、智力竞赛(比如“Jeopardy!”),到围棋、德州扑克,再到医疗诊断、图像和语音识别,人工智能系统在越来越多的领域开始达到甚至超过人类的认知水平,让其辅助甚至代替人类进行决策,不再是空中楼阁。

 

现在有理由预见,在不远的将来,交通运输、医疗、看护、工业和服务业等诸多领域的各式各样的智能机器(Intelligent Machine)或者智能机器人(Smart Robot)将成为人类社会中司空见惯的事物。与此同时,智能机器人的民事责任(当然也有行政责任和刑事责任,但不在本文讨论之列)将日益浮出水面,成为一个不容回避的法律问题,需要法律和法院认真对待并回应。当高度自主、脱离人类控制且独立运作并作出判断的智能机器人造成人身或者财产损害,如何分配并承担法律责任?当前以人类行为者为中心的侵权责任和以产品生产者为中心的产品责任,在应对这一问题时,暴露出局限性。本文旨在对此进行论证并提出初步的建议。

 

为了讨论的方便,下文将不使用人工智能、人工智能系统等模糊性概念,

 

转而采用智能机器人这一概念,并将其界定为具有以下特征的实体:

 

(1)通过传感器、与其环境进行数据交换以及数据分析等方式获得自主性(Autonomy)的能力;

 

(2)从经历和交互中学习的能力;

 

(3)具有可见形体;

 

(4)随其环境而调整其行为和行动的能力。按照这一定义,自动驾驶汽车、医疗机器人、护理机器人等都可以被智能机器人涵盖,而自主性(包括自主进行决策)和学习能力则是其核心特征;而且在某种意义上,已经没有很强的理由将其继续看作是供人类驱使的被动工具。

 

 

02

 

 

智能机器人对侵权责任、产品责任等传统责任框架提出的挑战

 

传统的机器,无论多么先进,在评定法律责任时,存在一个决定性的共同特征。在每一个案件中,机器的功能和决策总是可以直接追溯到假借人类之手嵌入到其中的设计、编程和知识,或者存在对机器施加控制的人类行为者。这些机器,无论多么复杂,终归是为人类所使用的工具而已。以汽车等工具性机器为例,当发生事故、造成人身或者财产损害,要么可以以未尽到合理注意义务为由追究使用者的过错侵权责任,要么可以以产品具有缺陷为由追究生产者的产品缺陷责任。这意味着,传统的机器不具有法律人格的属性,仅仅是个人、公司或者其他法律上的“人”的工具或者代理,这些法律主体在既有法律之下对其各自的行为负责。

 

但是,在不远的将来,完全自主的机器将被推向市场,自动驾驶汽车有望成为最早的一批。为此,社会将需要考虑,在就自动驾驶汽车等智能机器人的侵害行为分配法律责任时,既有的责任规则是否可以游刃有余。毕竟,未来的自主智能机器将有能力完全自主行为,不再是为人类所使用的被动工具;虽然人类设计、制造并部署了它们,但它们的行为却不受人类的直接指令约束,而是基于对其所获取的信息的分析和判断,而且,它们在不同情境中的反应和决策可能不是其创造者可以预料到或者事先控制的。完全的自主性意味着新的机器范式:不需要人类介入或者干预的“感知-思考-行动”。

 

(一)过错侵权责任难以适用于智能机器人

 

在实际运作过程中脱离人类的控制,是智能机器人的一个核心特征。这一现象使得以人类行为者的注意义务为前提的过错侵权责任难以适用于因智能机器人的使用而产生的加害行为,因为智能机器人是独立自主地运作的,缺乏对其进行直接操作或者控制的特定个人。

 

以自动驾驶汽车为例,国际汽车工程师协会(SAE International)将自动驾驶技术划分为六个等级:非自动(Level 0),驾驶员辅助(Level 1),部分自动(Level 2),有条件自动(Level 3),高度自动(Level 4),以及完全自动(Level 5)。本文不讨论在驾驶员辅助和部分自动这两种模式下,驾驶员和汽车制造商之间的责任分配,仅讨论当人类使用者完全不参与驾驶时的责任承担。当自动驾驶汽车达到四级(高度自动)或者五级(完全自动)时,人类使用者的角色从驾驶者转变为乘客,不再需要对行车状况和环境进行监视或者在紧急情况下进行操作。因此,当四级以上的自动驾驶汽车发生事故、造成损害时,即使人类使用者处在驾驶位上,也无法诉诸过错侵权,让人类使用者承担民事责任。在此种情形下,加害行为、因果关系和过错都不能归咎于人类使用者。

 

不参与驾驶使得人类使用者不必负担驾驶者在汽车驾驶过程中所应尽到的合理注意义务,只要不干扰自动驾驶系统,他甚至可以在驾驶位上随心所欲,包括睡觉、玩手机等。当乘客乘坐的是自动驾驶出租车时,情况就更是如此,缺少人类驾驶者使得过错侵权责任无从适用。但在另一个层面,注意义务的承担者从人类驾驶者转移到了自动驾驶系统;可以肯定的是,适用于自动驾驶汽车的注意义务标准必然不同于适用于人类驾驶者的注意义务标准。

 

半个多世纪以前,美国法院在Arnold诉Reuther案中对此进行了论证。在该案中,原告Arnold女士在不遵守交规的情况下横穿马路时,被被告Reuther先生驾驶的汽车撞伤,Arnold于是指控Reuther过失侵权。Arnold主张,Reuther有“最后明显机会”(Last Clear Chance)来避免车祸,但其未能做到,因而应为此承担责任。法院对这一观点不予认可,认为:“一个人无论多么高效,都不是一个机械的机器人,不拥有像雷达机那样,在危险具体出现之前将其发现的能力。必须为人类的弱点和反应留出一定的余地,而如果这样的余地必须要求人类在零点几秒内作出反应,并且不能像现代机械装置那样,以机械的速度和精度作出反应,那么就必须承认,Reuther作为一个普通人,再怎么做也不能避免因Arnold的过失而给她本人招来的不幸。”

 

因此,在涉及自动驾驶汽车的第一起事故案件中,法院将不会问自动驾驶汽车是否像一个理性人一样行为。Arnold诉Reuther案的核心问题有关过失:Reuther在当时的情况下是否作出了合理的行为?但是对于自动驾驶汽车,由于没有人对其施加直接控制,问题的核心将是汽车自身的表现是否达到应然的状态,比如是否达到既定的行业标准。由于自动驾驶汽车不是有效的法律主体,询问汽车自身是否尽到所应负担的注意义务,将是不切实际的;于是,需要诉诸产品责任,寻找让自动驾驶汽车的生产者承担责任的事由。

 

(二)智能机器人的产品责任及其挑战

 

在我国,《侵权责任法》《产品质量法》《消费者保护法》等法律对产品责任作出了规定。具体而言,因产品存在缺陷造成他人损害的,被侵权人可以向产品的生产者或者销售者请求赔偿。通说认为,产品责任属于无过错的严格责任,只要产品存在缺陷,生产者就应当承担侵权责任,无需证明其存在过错。虽然被侵权人可以选择向生产者或者销售者请求赔偿,但这两个主体之间实际上构成不真正连带责任,向被侵权人承担侵权责任的一方可以向有过错的另一方进行追偿。因此,当无人进行操作的自动驾驶汽车等智能机器人造成人身或者财产损害时,被侵权人可以向缺陷产品的制造商主张产品缺陷责任,需要证明:产品有缺陷,损害事实的存在,以及产品缺陷和损害事实之间存在因果关系。

 

产品缺陷是产品责任的一个核心概念,各国通说一般认为缺陷主要包括设计缺陷、制造缺陷和警示缺陷,我国关于产品缺陷的认定标准体现在《产品质量法》第46条,包括“不合理危险”标准和产品质量标准。此外,《产品质量法》还为产品生产者提供了免责事由,包括:未将产品投入流通;产品投入流通时,引起损害的缺陷尚不存在;以及将产品投入流通时的科学技术水平尚不能发现缺陷的存在。只要产品生产者能够证明存在免责事由,就不承担赔偿责任。

 

在法律考虑赋予自动驾驶汽车等智能机器人法律地位之前,其在法律上的地位就依然是物,落入产品的范畴是不成问题的,产品责任自然也就有适用的余地,只要被侵权人可以证成产品缺陷责任。为了讨论的方便,笔者将分两种情况来论证。

 

1.智能机器人涉及人为(非操作者)失误

 

证明产品存在缺陷可能是困难且受争议的,但如果被侵权人的损害能够归因于因制造商的人为失误而造成的产品缺陷,那么自动驾驶汽车等智能机器人的自动化程度再怎么高,也不会给既有的产品责任制度带来大的挑战。

 

按照我国的《产品质量法》,不符合国家标准或者行业标准的产品被认为具有缺陷。以Arnold诉Reuther案为例,假设Reuther先生乘坐的是一辆自动驾驶汽车,坐在后排,该汽车在距离Arnold女士15英尺时检测到了她并采取了紧急制动,但未能避免碰撞。再假设自动驾驶汽车行业存在一个“碰撞避免”标准:如果障碍物(包括人类)在距离汽车12英尺时被检测到,那么自动驾驶汽车必须能够在其行进路线上检测到障碍物并避免碰撞。

 

显然,在这种情况下,该自动驾驶汽车不符合这一行业标准,具有不合理危险,因为按照这一行业标准,碰撞本应避免。如果我们将这一行业标准换为15英尺,而将该自动驾驶汽车检测到Arnold的距离换为12英尺,此时证明缺陷的存在将很困难,即使依据《美国侵权法第三次重述》中的“消费者期待”标准(主要是指产品存在“不合理危险”缺陷)和风险-效用标准(产品的可预见的风险可以通过采取合理的替代性设计予以消除),情况也是如此。

 

此外,证明存在制造缺陷(比如部件失灵)或者警示缺陷(比如未能合理告知消费者如何操作智能机器人;在部分自动驾驶的情况下需要人类驾驶者保持警惕并进行操作的,如果制造商未能告知消费者如何进行操作,就需要承担产品缺陷责任),同样可以使被侵权人获得赔偿。

 

但问题是,人工智能技术的发展使得自动驾驶汽车等完全独立自主的智能机器人的出现成为可能,这带来的直接结果就是,一方面,证明缺陷尤其是人工智能系统层面的缺陷将变得异常困难,另一方面,事故的发生可能无法合理因归于智能机器人的设计或者制造缺陷。这将给产品责任带来直接的挑战。面对自主智能机器人,人们将需要开始审视既有的产品责任制度能否在制造商利益和消费者利益之间实现平衡。

 

2.智能机器人涉及无法解释的事故

 

产品责任只能让制造商对因产品存在缺陷而造成的侵害行为承担民事责任,但问题是,智能机器人的一些新特征可能使得无法将事故的责任分配给生产者等既有法律主体,尤其是当出现不能合理推断出事故是由设计或者制造缺陷造成的情形之时。虽然自动驾驶汽车普遍被认为比人类驾驶更安全,比如,麦肯锡公司的一份研究报告发现,自动驾驶汽车将使交通事故减少90%;但是自动驾驶汽车对交通事故并非具有完全的免疫力,而自主性、可预测性、可解释性、因果关系等因素将极大增加事件的无法解释性,带来责任鸿沟。具体论证如下。

 

第一,自主性与可预测性(Foreseeability)。如前所述,自动驾驶汽车等智能机器人区别于传统的机器的最大特征在于具有高度的甚至完全的自主性。无论采用何种机器学习方法,当前主流的深度学习算法都不是一步一步地对计算机编程,而是允许计算机从数据(往往是大量数据)中学习,不需要程序员作出新的分步指令。因此,在机器学习中,是学习算法(Learning Algorithm)创建了规则,而非程序员;其基本过程是给学习算法提供训练数据,然后,学习算法基于从数据中得到的推论生成一组新的规则,称之为机器学习模型。这意味着计算机可被用于无法进行手动编程的复杂认知任务,比如图像识别、将图片翻译成语音、汽车驾驶等。

 

回到自动驾驶汽车,自动驾驶系统利用一系列雷达和激光传感器、摄像头、全球定位装置以及很多复杂的分析性程序和算法等,像人类一样驾驶汽车,而且做得更好。自动驾驶汽车“观察”路况,持续注意其他汽车、行人、障碍物、绕行道等,考虑交通流量、天气以及影响汽车驾驶安全的其他所有因素并不断调整其速度和路线。而且自动驾驶汽车被编程来避免与行人、其他车辆或者障碍物发生碰撞。所有这一切都是机器学习的结果。因此可以说,在每一个现实情境中,都是自动驾驶汽车自身在独立判断和决策,虽然是程序员设定了学习规则。学习能力和适应能力的存在使得预测自动驾驶汽车在特定情境中的行为成为一个问题。

 

此外,人类决策系统与现代人工智能系统存在一个本质上的区别,正是这一区别使得人类无法准确预知人工智能系统针对某个问题的解决措施。受限于人类大脑的认知能力,为了作出决策,人类无法在有时间限制的情况下分析所有的相关信息,所以人类常常退而求其次,选择一个自己满意的解决方法,而非一个最佳化的解决方法,经济学家Herbert Simon称之为“满意法”。

 

电脑计算能力和机器学习方法的不断提高,使得现代人工智能系统能够在有限的时间内精确计算所有的可能性,而且人工智能系统本质上不受提前预置的概念、经验法则、传统智慧等因素的限制,从而使其能够选择人类完全没有考虑过或者可能会实施的解决方案。正是这种能够作出独特决策的能力或者说自主性,让人工智能系统能够应用于更加广泛的领域,同时也让人工智能系统的设计者具有赋予人工智能系统这项能力的经济动力。

 

所以,尽管人类设计并制造了自动驾驶汽车等智能机器人,但却可能无法预见其具体决策,然而这种无法预见性可能正是系统的设计者所期待的。随着更加通用化的人工智能的发展以及机器学习技术的进步,人工智能的行为和决策的不可预见性问题将会更加频繁地出现,而且程度会不断加深。

 

更进一步,自动驾驶汽车可能“打破”预先设定的规则,大大超出其设计者的预期。人们一直担心,赋予机器自主“思考”的能力可能导致其有能力违反被给予的“规则”,以人们意想不到的方式行为。这不纯粹是想象,已经有证据表明高度“智能”的自主机器可以学习“打破”规则以保护其自身的生存。以自动驾驶汽车为例,尽管模拟测试对其行为和决策意味重大,美国交通部在其发布的《联邦自动驾驶汽车政策》中也强调模拟能够代表复杂的现实环境的测试环境的重要性;但是自动驾驶汽车脱离制造商控制、进入流通领域之后的学习和经历同样影响其行为和决策。新的数据输入可能使自动驾驶汽车进行调整和适应,导致其行为和决策超出预先设置的规则,这在理论上并非不可能。

 

再者,测试环境并不能穷尽所有的现实可能性,当异常情况(Novel Situation)出现时,自动驾驶汽车必须在缺乏预先设定的规则的情况下,依据其自己创建的规则,真正独立自主地作出决策。对于这种偏离预期的行为,以产品缺陷这一事由让生产者承担责任,难以在侵权法上得到证成。

 

第二,可解释性(Interpretability)。通常,当人类驾驶者造成交通事故,诉讼双方通过举证、质证等程序性手段,完全可以还原并查明事故发生的过程,从而决定人类驾驶者是否履行了合理的注意义务。事故的可解释性使得因传统的交通事故而产生的法律纠纷可以按照既有法律框架得到有效解决。但是,现代人工智能系统越来越成为一个“黑箱”,所有决策都存在于这个“黑箱”中,自动驾驶汽车等智能机器人也不例外。

 

而且,虽然学习算法可能是公开和透明的,但它产生的模型可能不是,因为机器学习模型的内部决策逻辑并不总是可以被理解的,即使对于程序员也是如此。因此,即使设计者可能也无从知晓系统如何进行决策,更别提普通公众了。行为和决策的不透明性和不可解释性带来的直接结果就是,当自动驾驶汽车造成交通事故时,人们将很难查明事故背后的原因。即使法律要求算法必须公开、透明,或者可以在法庭上对智能机器人的算法系统及其决策进行交叉询问,当事人也会面临技术性障碍,在成本上并不经济。此时,谁来承担法律责任,将成为一个大大的问题。

 

第三,因果关系(Causality)。一方面,如前所述,人工智能系统的一些新特征使得事故的可解释性大打折扣,带来归因难题;另一方面,由于自动驾驶汽车等智能机器人自带学习能力和适应能力,其“后天的”(区别于“先天的”系统设计和训练)学习和经历可能成为此类系统造成的任何损害的一个替代原因(Superseding Cause),足以使侵权行为事实上的行动者免于承担责任。

 

替代原因之所以可能出现,是因为一个能够自主学习的人工智能系统的行为部分依靠其后天的经历,即使最细心的设计者、编程者以及制造者都没有办法控制或者预期人工智能系统在脱离他们之后将会经历些什么。

 

因此,当自动驾驶汽车等智能机器人发生事故、造成损害,而事故本身又难以解释或者不能合理追溯到设计缺陷或者制造缺陷,或者损害是因人工智能系统难以为设计者所预测到的特殊经历造成的,此时,让设计者承担责任将会导致不公平和非正义,但这样却会导致被侵权人难以获得赔偿。于是,法院面临的挑战是,为了保证被侵权人能够得到赔偿,就必须解决人工智能系统的可解释性、可预见性以及因果关系等问题。

 

(三)替代责任的适用可能性

 

如果智能机器人实际上“代理或者代表”某个法律主体从事行为或者进行决策,那么可以比照父母对未成年人子女的责任或者说监护人对被监护人的责任,或者雇主对雇员的责任,让部署智能机器人的人承担替代责任。其实在合同领域,智能软件、程序化交易、智能合约等现象就给合同责任带来挑战,引起学界讨论,但是对于算法和程序做出的交易,各国一般将智能软件看作是通信方式,而非认为智能软件和部署智能软件的人之间存在代理关系或者雇佣关系。因此,借助智能软件形成的所有合同法律关系都归属于部署智能软件的人,由其享有合同权利并承担合同义务。

 

按照这一思路,在某些情况下,可以让部署智能机器人的人承担替代责任。比如,如果一个公司利用无人机送货,或者利用自动驾驶出租车运送乘客,或者利用服务机器人提供家政、酒店、外卖等领域的服务,那么其就必须对智能机器人的行为负责。但是,如果我们类比雇主对雇员的责任,雇主的替代责任以雇员在从事雇佣活动中造成的损害为限,不对雇员的职务范围以外的或者非职务的加害行为负责,那么如何确定部署智能机器人的人对智能机器人的责任限度和范围,将是法律必须回应的一个问题。更进一步,如果将智能机器人看作是事实上的雇员,为了明确雇主的责任,就必须提出判断智能机器人的职务行为和非职务行为的标准。本文仅提出这么一种可能性,这里不做进一步探讨。

 

 

 

03

 

 

欧盟开始为智能机器人探索新的民事责任规则

 

面对人工智能的快速发展,一些国家开始探索相关立法和监管。

 

在美国,美国交通部2016年9月出台的《联邦自动驾驶汽车政策》虽未涉及责任问题,但其中提出的自动驾驶汽车安全标准却可以为举证产品责任提供必要的参考;此外,佛罗里达州、密歇根州等涉及自动驾驶的立法均规定,车辆在被第三方改造为自动驾驶汽车后,车辆的原始制造商不对自动驾驶汽车的缺陷负责,除非有证据证明车辆在被改造为自动驾驶汽车前就已存在缺陷,这一规定实际上有利于厘清各方的法律责任。

 

在德国,监管机构开始考虑出台新规,要求汽车厂商在自动驾驶汽车中安装黑匣子,以便在事故发生后判定法律责任,开展保险理赔工作,这表明德国已经开始关注自动驾驶汽车的透明性、可解释性以及可追溯性问题。

 

在英国,自动驾驶汽车中心(Centre for Connected and Autonomous Vehicles,缩写为CCAV)曾发布两份报告,在其中对保险和产品责任提出建议;报告提议将强制性的机动车保险延伸到自动驾驶汽车以便将产品责任囊括进去;新的保险框架旨在保护自动驾驶汽车事故中的受害者,受害者将可以直接向汽车保险人请求赔偿,而保险人将有权向依据既有法律负有责任(比如产品责任)的主体进行追偿。

 

在智能机器人民事立法方面,当属欧盟动作最大。早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立一个工作小组,专门研究与机器人和人工智能的发展相关的法律问题。

 

2016年5月,法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》,同年10月发布《欧盟机器人民事法律规则》。在这些研究和报告的基础上,2017年2月16日,欧盟议会投票表决通过一份决议,在其中提出了一些具体的立法建议,要求欧盟委员会就机器人和人工智能提出立法提案(在欧盟只有欧盟委员会有权提出立法提案,但欧盟委员会并无义务遵守这一要求,不过如果其拒绝这么做,就必须陈述其理由)。

 

法律事务委员会提出的立法建议涉及多个方面,主要包括:成立一个专门负责机器人和人工智能的欧盟机构;确立人工智能伦理准则;为智能机器人重构责任规则;长期来看,考虑赋予复杂的自主机器人法律地位(所谓的“电子人”)的可能性;知识产权方面应明确人工智能的“独立智力创造”;注重隐私和数据保护;推进标准化工作和机器人的安全可靠性;针对具有特定用途的机器人和人工智能系统(主要包括自动驾驶汽车、护理机器人、医疗机器人、无人机、人类修复和增强等)出台特定规则,进行特殊监管;关注人工智能的社会影响;以及加强法律政策领域的国际合作。

 

(一)需要新的责任规则

 

在法律事务委员会看来,如今的机器人已经具有自主性和认知特征,也即,具有从经历中学习并独立自主地作出判断的能力,而且可以实质性调整其行为,从机器人的侵害行为中产生的法律责任由此成为一个重大问题。机器人的自主性越强,就越难将其当成是其他主体(比如制造商、所有人、使用者等)手中的简单工具,这反过来使得既有的责任规则开始变得不足,因而需要新的规则。新的规则着眼于如何让一台机器为其行为或者疏忽而部分或者全部地承担责任。结果就是,解决机器人是否应当拥有法律地位这一问题将变得越来越迫切。最终,法律需要对机器人的本质问题作出回应,其是否应当被当成是自然人、法人、动物抑或物,或者法律应当为其创设新类型的法律主体,在权利、义务、责任承担等方面具有其自身的特性和内涵。

 

在目前的法律框架下,机器人自身不对因其行为或者疏忽而给第三方造成的损害承担责任。而且,既有责任规则要求机器人的行为或者疏忽能够归因于制造商、所有人、使用者等特定法律主体,并且这些主体能够预见并避免机器人的加害行为。更进一步,关于危险物品的责任和产品责任可以让这些法律主体为机器人的行为承担严格责任。

 

但是,如果机器人自主地作出决策,传统的责任规则就将不足以解决机器人的责任问题,因为传统的规则将可能不能确定责任方并让其作出赔偿。此外,现有法律框架的缺点在合同责任方面更是显而易见的,因为机器人现在能够选择合同当事人,磋商合同条款,缔结合同并决定是否以及如何执行所达成的合同,这些现象使得传统的合同规则无法适用。在非合同责任方面,既有的产品责任规则仅能涵盖因机器人的制造缺陷而造成的损害,同时受害人必须能够证明存在实际损害、产品缺陷且缺陷与损害之间具有因果关系。

 

但是,目前的法律框架无法完全涵盖新一代机器人所造成的损害,因为它们具备适应性和学习能力,具有一定程度上的行为不可预测性,因为这些机器人将从其自己的变幻莫测的经历中自主学习,并且以独特且不可预见的方式与其所处环境进行交互。

 

(二)构建新的责任规则

 

对于智能机器人带来的责任挑战,法律事务委员会从欧盟自身的法律体系出发,提出了一些可供参考的立法建议。具体论证如下。

 

第一,对于智能机器人,有损害,必有责任。无论选择什么样的法律方案来解决机器人的责任问题,在涉及财产损害之外的损害案件中,都不应该限制可以被弥补的损害的种类或者程度,也不应该基于损害是由非人类行动者(即智能机器人自身)造成的这一理由限制受害人可能获得的赔偿。对于智能机器人造成的损害,未来的立法应当规定严格责任,仅要求机器人的侵害行为和受害人的损害之间具有因果关系即可。

 

第二,如果最终负有责任的主体得到确认,其所应承担的责任应与其给予机器人的指令级别以及机器人的自主性程度相称。因此,机器人的自主性或者学习能力越强,其他主体的责任就越低;机器人的“教育”持续的时间越长,“教育者”所应负担的责任就越大。此外,当将机器人的侵害行为归咎于特定主体时,不应将通过“教育”机器人产生的技能与严格依赖于其自身学习能力的技能相混淆。

 

第三,为自主智能机器人造成的损害分配法律责任是一个复杂的问题,一个可能的解决方案是适用于智能机器人的强制保险制度。但是该保险制度与当前的机动车保险不同,因为后者仅覆盖人类行为和差错。适用于机器人的保险制度可以基于要求制造商为其生产的机器人购置保险的义务。除了制造商,也可以让机器人的所有人购买此类保险。

 

第四,可以考虑建立赔偿基金,作为强制保险制度的一个补充。一方面,赔偿基金可以确保未被保险覆盖的损害可以得到弥补,这是设立赔偿基金的首要目的;另一方面,允许机器人牵涉到的多个利益相关方的投入,比如向智能机器人作出的投资、捐赠或者支付,被转移到该基金。此外,赔偿基金可以作为限制制造商责任的一个条件,即,对于被赔偿基金覆盖的智能机器人,其制造商仅承担有限责任,即,财产损害的赔偿责任以该基金为限度,其他类型的损害的赔偿则不受此限。

 

第五,与保险、赔偿基金等相配套的机器人登记制度和机器人法律地位。机器人登记制度基于机器人分类。确保机器人与其赔偿基金之间的关联在机器人登记中得到体现,以便任何人都能知晓基金的性质、财产损害的责任限制以及其他相关信息。此外,对于最复杂的自主智能机器人,可以考虑赋予其法律地位,在法律上承认其为“电子人”(Electronic Person),具有明确的权利和义务,包括对其造成的损害作出赔偿,以及在智能机器人作出决策或者独立自主地与第三方交往时,适用电子人格(这可以帮助解决合同责任、侵权责任等问题)。

 

 

 

04

 

 

智能机器人民事责任的几种方案

 

如前所述,智能机器人的出现和发展将给产品责任等既有侵权责任规则提出挑战。法院未来在审理第一起涉及真正完全的自动驾驶汽车或者智能机器人的损害案件时将需要面对这些挑战,可预测性、可解释性以及因果关系等将可能成为弥补损害的最大障碍。与此同时,这些挑战一方面可能使终端用户的损害无法得到补偿,另一方面给制造商带来法律责任的不确定性,最终可能影响技术发展和进步,自动驾驶汽车等智能机器人所能带来的诸多好处因此可能延迟普及。

 

欧盟、英国、美国等都已经意识到既有的民事责任规则在应对智能机器人的法律责任时具有局限性,这种局限性进而会影响各方对其合理行为的预测可能性,进而破坏法律的可预测性,最终会限制行业发展的步伐;这些国家和地区为此已经开始探索新的责任规则或者法律方案,目的在于在制造商、终端用户等法律主体之间实现新的法律平衡,同时为智能机器人民事责任的确定提供更为清晰、明确和有效的规则。

 

为了更合理、有效地对智能机器人造成的损害分配法律责任,笔者结合各国的探索,试图提出几种可供参考的方案;但立法者或者法院最终选择何种方案,需要从法经济学、实证主义、功用主义等角度进行全方位的论证,以便实现法律平衡各方利益的价值。

 

第一,借鉴《侵权责任法》上关于危险责任的规定,让智能机器人的制造商或者使用者承担严格责任(Strict Liability)。但智能机器人的严格责任的出发点不是“异常危险”或者“不合理危险”。如前所述,当真正完全的自主智能机器人发生事故、造成损害,证明缺陷、因果关系等事项将成为受害人难以逾越的法律障碍。在这种情况下,法律或者法院可以强令执行保险制度以解决侵权法的不充足性。

 

支持建立智能机器人的严格责任的理由如下:

 

其一,为不是因其自身过错而遭受损害的个人提供救济是一项重要的价值,在因果链条无法解释的情况下让一个个体自己承担所遭受的损失,与公正、分配正义、风险分担等基本观念背道而驰;

 

其二,不同于受害人,智能机器人的制造商处在了消化成本的有利位置,可以通过定价等方式广泛分散损失负担;

 

其三,严格责任制度可以节约所有相关的交易成本,尤其是在缺陷、因果关系等难以证明的情况下,诉讼成本将会非常高昂;从成本-效率的角度来看,智能机器人的复杂性和自主性呈几何级数增长,产品责任诉讼的成本亦将呈指数级增长,与其为律师、专家等投入高昂成本,倒不如来更多赔偿受害者;

 

最后,相比于一个预测性低的法律制度,一个可预测的责任机制将能更好地促进创新。

 

第二,差别化责任规则。差别化责任制度的前提是针对于自动驾驶汽车等智能机器人的审批机制。未来有必要由统一的人工智能监管机构或者行业主管机构对智能机器人进行必要的监管,审批制度是潜在的监管措施之一。

 

审批制度可以发挥两方面的作用,一方面,审批制度有利于保障面向终端用户的智能机器人的安全可靠性,增进公众对智能机器人的信任;另一方面,审批制度可以成为智能机器人的差别化侵权责任的基础。

 

对于通过监管机构审批的智能机器人,制造商实质上将只承担有限的侵权责任,对监管规则的遵守换来的是有限的侵权责任,而非完全排除其侵权责任。在涉及通过审批的智能机器人的诉讼中,被侵权人需要按照传统的产品责任进行举证。否则,制造商等法律主体将只承担有限责任,方式可以是保险、赔偿基金(比如监管机构可以拿审批费用的一部分或者政府财政预算来设立赔偿基金)等。

 

对于没有经过审批的人工智能系统,制造商等法律主体应当承担严格责任,而且该责任是连带的,以便让智能机器人涉及到的多个相关主体都承担责任,以实现最大化救济被侵权人的目的。但是为了不不利地影响技术创新和产业发展,审批制度可以是自愿性的。

 

第三,强制保险制度和赔偿基金。如前所述,在涉及智能机器人的诉讼中举证产品缺陷、因果关系等事项将变得越来越困难,为了能够对无辜的受害人进行赔偿,可以考虑针对智能机器人提出由制造商或者所有人负担的强制性的保险机制,以覆盖产品责任;由市场主导的一个保险机制将不需要对既有法律制度作出大的调整或者变革。赔偿基金可以作为有限责任承担或者赋予智能机器人法律人格的配套措施,已如前所述,不再赘述。

 

第四,可以像欧盟那样,考虑赋予某些智能机器人法律人格。历史地看,法律可以赋予公司等法人地位,甚至承认非法人组织(比如合伙)也可以享有一定的法律地位,未来在时机成熟时赋予智能机器人法律地位,也未尝不可。到那时,如果赋予智能机器人电子人格(Electronic Personality),让其可以享有特定的权利和义务,并可以对其行为承担法律责任,包括对其造成的损害的赔偿责任,人们现在担心的很多责任问题都可以得到较好的解决。

 

 

 

 

 

制定的法律在制定之时便已落后于时代。诚然,技术进步总是会给法律提出这样或者那样的挑战,但是法律的可预测性和张力使得法院通常可以依循法律解释学,得心应手地应对新出现的情况,而不需要对既有法律规则做出较大变动。

 

但是,法律解释学并非一颗灵丹妙药,不但有其局限性,而且也会失灵,在一些新情况下难以确保法律的利益平衡目的之实现。完全自主的自动驾驶汽车等智能机器人的出现和发展,将会带来这样的新情况。届时,侵权法、合同法等法律规则的不充足性和局限性将逐渐显现出来,对新的法律规则的需求将变得越来越迫切。

 

究竟什么样的规则最适合应对未来的智能机器人带来的责任挑战,笔者在上文提出的几种方案并非盖棺之言,而是希望能够引起人们的关注和探讨,共同寻找并论证恰当的规则。最终目的是希望在促进新技术发展的同时,也对可能被新技术影响或者侵害的人提供法律救济,无论这些影响或者侵害能否被既有的法律所覆盖。

 


参考文献

〔1〕曹建峰.人工智能:机器歧视及应对之策〔J〕.信息安全与通信保密,2016,(12):15-16.

〔2〕David C. Vladeck. Machines Without Principals: Liability Rules and Artificial Intelligence〔J〕. 89 Wash. L. Rev. 117, 150 (2014).

〔3〕刘家安.机动车交通事故责任的归责原则及责任归属〔J〕.政治与法律,2010,(5):15-16.

〔4〕张新宝,任鸿雁.我国产品责任制度: 守成与创新〔J〕.北方法学,2012,(3):6-7.

〔5〕高圣平.论产品责任的责任主体及归责事由——以 《侵权责任法》“产品责任”章的解释论为视角〔J〕.政治与法律,2010,(5):7-8.

〔6〕罗碧文.产品责任归责原则研究〔EB/OL〕(2009-01-14)〔2017-05-05〕. http://old.chinacourt.org/html/article/200901/14/340255.shtml.

〔7〕Matthew U. Scherer. Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies〔J〕. 29 Harvard Journal of Law & Technology. 354, 400 (2016).

〔8〕Nick Bostrom. The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents〔J〕. 22 Minds & Machines. 71, 84 (2012).

〔9〕伦一.美德加快健全自动驾驶制度对我国的启示〔EB/OL〕(2017-02-23)〔2017-05-05〕. https://mp.weixin.qq.com/s/uKurOiuhMlPtOCY3qDscZg.

〔10〕曹建峰.10大建议!看欧盟如何预测AI立法新趋势〔J〕.机器人产业,2017,(2):16-20.

〔11〕Susanne Beck. The Problem of Ascribing Legal Responsibility in the Case of Robotics〔J〕. 31 AI & Society. 473, 481 (2016).

 
本网站所收集的部分公开资料来源于互联网,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
结构介绍 | 新闻动态 | 友情链接 | 联系我们