网站首页

产品中心

智能终端处理器 智能云服务器 软件开发环境

新闻中心

关于开元体育

公司概况 核心优势 核心团队 发展历程

联系开元体育

官方微信 官方微博
主页 > 新闻中心

开元体育杨立新:人工智能产品责任的功能及规则调整 数字法治202304

发布时间:2023-10-09 03:58浏览次数: 来源于:网络

  【作者】杨立新(中国人民大学民商事法律科学研究中心研究员,广东财经大学法学院特聘教授,中国法学会民法学研究会副会长)

  【来源】北宝法学期刊库《数字法治》2023年第4期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。

  内容提要:民法应对人工智能产品造成损害的救济工具和风险防控工具,就是人工智能产品责任。在防控人工智能技术发展风险及救济造成的损害方面,人工智能产品责任具有救济损害、预防损害、警示损害的调整功能。依照《民法典》和《产品质量法》规定的产品责任规则,在责任主体、归责原则、产品缺陷等方面进行适当调整,就能够满足审理人工智能产品责任纠纷案件的法律适用需要,实现其救济损害和防控人工智能技术发展风险的民法工具作用。

  目次 一、救济人工智能产品造成损害的工具就是产品责任 二、人工智能产品责任救济损害、防控风险的功能与不足 三、人工智能产品责任规则的调整和具体应用 四、结论

  人工智能技术飞速发展,随之而起的法律热点是对人工智能发展风险的防控以及对其造成损害进行民事救济的研究。对此,笔者曾经发表过四篇文章参与讨论,经过进一步思考和归纳,认为人工智能发展风险及民法管控的关键,在于确认人工智能产品责任的功能及其规则,这恰好是法院审理人工智能产品损害赔偿责任纠纷案件适用法律的急需。本文就此进行探讨。

  毫无疑问,人工智能技术的发展是存在风险的,这和当年发明电能等自然力的效果是一样的,既能产生巨大的社会功效,又同时并存风险,技术的研发差误和不当利用都会造成损害,需有法律工具进行救济和防控。民法救济和防控人工智能技术发展风险造成损害的主要工具,就是产品责任。

  人工智能技术的高速发展,并不只是局限于技术的发展,而在于将人工智能技术发展的成果物化成产品,人工智能技术发展成果只有结晶为人工智能产品,才能应用于社会,造福于人民。

  例如,无论是L1级还是L5级的自动驾驶汽车,都是应用自动驾驶的人工智能技术软件制造的产品,并且用汽车的外形,将人工智能技术研究成果的自动驾驶软件应用于自动驾驶汽车,形成人工智能产品,才能应用于社会。

  又如,外科手术机器人为患者实施外科手术,无论是非自主型、半自主型、全自主无意识型还是全自主有意识型的手术机器人,也都是人工智能技术在医疗领域的应用,通过手术机器人这个产品,负载人工智能技术研究成果,应用于医疗领域的外科手术中。

  即使一些智能机器人甚至具有了人的外形,有的国家还赋予其公民身份,有学者认为,自主、具有不可解释性不可预见性的智能体,何以如受动可测的机器全然视为工具或客体,缺乏有力论述,因而应当作为特殊的民事主体,具有民事权利能力和民事行为能力。然而,赋予人工智能机器人的人格也不过是人工类人格,绝不会是自然人格,更不会是类似法人的拟制人格,故不会成为民事主体,其属性只能是产品。

  我国法律认为,产品是指经过加工、制作,用于销售的动产。用这种产品的定义界定,认为人工智能系技术成果的属性似乎不够准确。其实不然,因为最终能够应用于人类社会的人工智能技术,必然形成外在的形态,这种形态当然表现为动产,其中经过的“加工、制作”,并非一般的加工、制作,而是人工智能的高科技加工、制作,将人工智能技术研究成果付型为所谓的人工智能体,其实就是形成动产的产品。虽然人工智能产品的加工、制作更为复杂,但是并非加工、制作的概念所不能包含。

  既然人工智能技术成果的物质载体是产品,在民法领域的地位就是民事法律关系客体,而不会成为主体,笔者认为,对人工智能机器人赋予公民以及民事主体的法律地位,并不适当。

  任何高科技的发展都存在高风险,最终都表现为造成人的损害。人工智能技术发展的高风险也是如此。

  当代人工智能技术高速发展为社会带来了巨大福利。自动驾驶汽车的发展不仅给无能力驾驶机动车的人带来出行的便利,而且可以减少机动车交通事故,维护交通安全,促进社会发展。医疗机器人介入对疾病的诊断和治疗,特别是手术机器人的精准外科手术,给患者带来福音,对保障人类健康具有更好的前景。更不用说秘书机器人的应用能够“以一当十”甚至“以一当百”,极大提高文案工作效率。

  不过,任何技术的发展都具有两面性,是一柄双刃剑,人工智能技术的发展同样如此。从表现形式上看,一方面,人工智能技术还处于发展过程中,难免在某些方面存在瑕疵。例如,目前L2级、L3级自动驾驶汽车发生交通事故,就有因自动驾驶软件瑕疵引起的。另一方面,利用人工智能技术损害他人、危害社会,同样也是人工智能技术发展可能带来的风险。人工智能技术在发展和利用过程中存在风险是客观存在的,甚至有时是不可避免的。

  无论在上述哪种情形下,人工智能技术发展风险的最终表现,都是造成损害。存在技术缺陷的人工智能产品,会造成使用人或者他人的损害;利用人工智能技术伤害他人,包括强人工智能体自身实施的犯罪及其与个人或者其他强人工智能体的共同犯罪,以及自然人或者单位利用弱人工智能实施的犯罪,也同样是造成他人损害。事实上,防范人工智能技术发展的风险,就是对人工智能技术造成损害的防控,以及对造成损害的救济。

  既然人工智能技术的物质载体是产品,人工智能技术发展风险的主要后果是造成损害,那么,民法领域防控人工智能技术发展风险、救济其造成损害的基本工具,就是产品责任。

  对产品责任的定义,有的认为,产品责任是指因产品有缺陷造成他人财产、人身损害,产品制造者、销售者所应承担的民事责任;也有认为,产品责任是指因产品存在缺陷造成他人损害时,生产者、销售者应当承担的侵权责任。依照《民法典》第1202条和第1203条的规定,产品责任是指产品生产者、销售者因生产、销售缺陷产品致使他人遭受人身伤害、财产损失而应承担损害赔偿等责任的特殊侵权责任。这些对产品责任的定义并无实质性差别,都比较准确地概括了产品责任的基本特征。

  首先,人工智能产品造成损害的侵权责任,必定发生在产品流通领域,这是《产品质量法》界定产品概念时使用“用于销售”一词的基本含义。人工智能产品绝非凭空进入使用人的手中,必定通过市场产品销售的流通环节,在设计者设计出人工智能技术软件、生产者据此生产出人工智能产品后,通过销售者的销售,到达使用人的手中,从而实现人工智能产品的流通。人工智能产品在使用中,造成使用人自己损害或者他人损害,都是在产品流通领域发生的。如果人工智能产品尚未进入流通领域,而是在研发领域造成损害,虽然也有民事责任的救济问题,却不构成人工智能产品责任。人工智能产品致人损害的这个特点,符合产品责任发生在产品流通领域的基本特征。

  其次,致人损害的产品须存在缺陷,这是产品责任的最主要特征。同样,人工智能产品如果没有缺陷,当然不会造成人的损害,也不存在产品责任规则的适用问题。只有人工智能产品存在缺陷,不论是设计缺陷、制造缺陷、警示说明缺陷还是跟踪观察缺陷,对造成的损害用产品责任进行救济,就是最佳方法。因此,有学者认为,产品责任制度规制人工智能侵权具有相对合理性,笔者认为,结论基本正确。

  最后,产品责任不是一般侵权责任,而是特殊侵权责任。产品责任不同于一般侵权责任的基本特征,是适用无过错责任原则。人工智能产品造成他人损害,构成侵权责任,但是,如果适用一般侵权责任规则,实行过错责任,由于人工智能技术的高科技性质,没有专业知识的受害人难以证明设计者、生产者、销售者在致人损害中是否有过错,难以保护自己的权益、及时救济损害。适用无过错责任原则,只要人工智能产品存在缺陷,设计者、生产者、销售者就应当承担赔偿责任,能保护好受害人的合法权益,也能通过其警示和阻吓功能,使人工智能产品设计者、生产者、销售者谨慎小心,履行高度注意义务,避免人工智能产品存在缺陷,防范造成他人损害。

  故笔者认为,民法防控人工智能技术发展风险、救济其造成损害的基本工具,就是产品责任。仅仅认为产品责任对救济人工智能产品的损害具有“权宜性”,还是略有保守。

  通过人工智能产品责任救济损害、防控发展风险的主要功能,有救济、预防和警示三个方面。正因如此,认为产品责任对救济人工智能产品造成的损害具有“权宜性”的不足,就在于人工智能产品责任的三个基本功能能够在民法领域全面救济损害,防控人工智能技术发展风险。

  人工智能产品责任是侵权责任,具有侵权责任的最基本功能——救济损害。在《民法典》实施前,根据我国《民法通则》《侵权责任法》等规定,侵权责任方式包括8种之多。《民法典》对民事权利保护方法进行成功改革,在侵权请求权之外,还认可物权请求权、人格权请求权、身份权请求权等固有请求权的救济方法,形成完整的民事权利保护的请求权体系。侵权请求权的基本责任方式是损害赔偿,以及损害赔偿的替代方式即恢复原状、返还财产。

  人工智能产品责任也是通过损害赔偿的责任方式,救济受到损害的受害人,使其权利恢复原有状态。这正是侵权责任救济损害,使受到损害的权利恢复原有状态的基本功能。例如,在医疗领域,使用医疗机器人进行诊疗或者实施外科手术,通过医疗机构承担损害赔偿的方法救济患者权益受到的损害,就是如此。

  预防损害是侵权责任的功能之一,人工智能产品责任同样具有这种功能。如前所述,对人工智能技术发展风险的防范,除了对人工智能产品造成的损害予以赔偿外,更应该重视的是发挥人工智能产品责任的预防损害功能,防范和限制人工智能技术发展风险转化为现实损害。

  人工智能产品责任的预防功能,源于对侵权人责以侵权损害赔偿责任。当人工智能技术软件出现瑕疵,导致其产品存在缺陷时,对造成的损害须承担相应的损害赔偿责任,这种后果能够发挥法律上的阻吓作用,使人工智能技术的研发为避免承担损害赔偿责任而谨慎行事,防范人工智能产品的设计、制造、销售因存在缺陷而造成他人损害。通过损害赔偿责任的阻吓作用转化为预防损害功能,使人工智能技术的研发人、应用人、销售人在将其转化为人工智能产品以及销售的流通过程中,预防损害,保障安全。

  人工智能产品责任还具有另一个重要功能,是对人工智能产品使用人的警示损害作用。曾经发生的一件L3级自动驾驶汽车的交通事故,驾驶人曾经违反产品风险警示提示的操作方法,展示给乘车人观看;在发生交通事故的黑匣子记录中,出现了事故发生前十几分钟驾驶人未操控汽车的空白,证明驾驶人在交通事故发生时有可能是处于睡眠状态,没有按照风险警示及其操作方法操控汽车。由此可见,在人工智能产品发生的损害中,有些是由于人工智能产品的使用人违反操作规范造成自己损害。这说明,人工智能产品的使用人应当知悉人工智能产品操作的要求,按照产品的警示说明正确使用人工智能产品,避免造成损害。对因使用人不正确使用人工智能产品的过失造成的损害,应由使用人自己承担后果,发挥人工智能产品责任的警示损害功能。对人工智能产品存在的风险,不仅人工智能技术研发者、生产者、销售者负有预防损害之责,同时也警示人工智能产品使用人应当预防损害,防止存在风险的人工智能产品由于自己的错误适用而造成自己或者他人的损害。

  就上述人工智能产品责任的法律功能而言,对救济损害、防范风险是能够发挥作用的。其中,救济损害是其最基本、直接功能,尽管预防损害和警示损害是人工智能产品责任间接具有的功能,但是也能发挥防范人工智能技术发展风险的作用。

  不过,笔者认为,人工智能产品责任救济和防控人工智能技术发展风险还是存在不足的,主要表现在以下三个方面。

  第一,产品责任对人工智能技术发展风险还不能全面发挥防控作用,需要不同部门法协同努力。具言之,在对人工智能技术发展风险的防控中,产品责任发挥的功能只能限制在自己的功能范围中。除了救济损害、预防损害和警示损害,其他功能还需由其他法律分担。例如,对恶意利用人工智能技术产品危害社会的犯罪行为,应由刑事法律承担管控职能。通过对利用人工智能技术产品的犯罪人承担刑事责任的方法,对人工智能技术研发和利用进行严格管控,防止其成为实施犯罪行为的工具。

  第二,在对人工智能技术发展风险的民法防控中,产品责任也有自己的局限性。在人工智能技术研发中发生的损害,产品责任对有些情形不能发挥作用。例如,在研发过程中,因人工智能技术的算法及其成果存在错误,导致研发失败引发工伤事故的,不能依据产品责任规则救济损害,而应由工伤事故责任进行规范;在研发过程中使用的原材料有缺陷引发研发事故造成损害的,除了依照工伤事故责任规范救济损害,还可以依照产品责任规则主张原材料提供者承担损害赔偿责任。可见,对人工智能技术发展风险的民法防控和救济,产品责任只是民法职能之一部分,还要由民法的全部功能发挥作用才能全面实现。

  第三,即使依现行产品责任救济和防控人工智能技术发展风险,也存在不足。例如,产品责任的责任主体分为两个层次:一是生产者、销售者,二是仓储者、运输者等第三人。在人工智能产品责任中,在第一层次的责任主体中缺少设计者作为责任主体。在通常情况下,一般的产品设计者概括在生产者范围内,因为设计者和生产者往往为一体。如果产品纯粹是另聘设计者,且因设计缺陷造成损害,一般要通过追偿权的行使,将责任之“锅”还给最终责任人即设计者,因而设计者的责任或者被生产者吸收,或者将设计者作为第二层次的责任主体。但是,在人工智能产品责任中,人工智能产品的设计者显然具有特别的地位,与生产者和销售者具有同等的责任主体地位,或者高于销售者的责任主体地位,应当特别对待。例如,人工智能技术的研发单位设计出软件,制造者完全依据其设计生产出人工智能产品,或者将该软件应用于产品,存在的设计缺陷是造成损害的原因,对此,直接追究设计者的损害赔偿责任,才能更好地发挥产品责任的功能。如果将人工智能技术研发人作为第二层次的责任主体,适用《民法典》第1204条规定,对人工智能技术研发人的制裁和警诫作用就会减弱,因为如果总是由生产者、销售者为其设计缺陷造成的损害“背锅”,当然不利于发挥产品责任的功能。又如,通常的产品缺陷内涵不完全适应人工智能产品的缺陷认定,需要在通常的产品缺陷的认定标准上,增加新的、能够适用于人工智能产品缺陷的认定标准。

  鉴于人工智能产品责任在救济、防控人工智能技术发展风险中的功能和不足,对人工智能产品责任的法律适用,一方面是对产品责任规则进行适当调整,另一方面是对现有产品责任规则结合人工智能产品的情况予以具体应用。综合起来,人工智能产品责任的法律适用规则包括以下几个方面。

  《民法典》对产品责任的责任主体规定了三个条文,其第1202条规定生产者为中间责任和最终责任主体;第1203条规定销售者可以作为中间责任主体,作为最终责任主体则须有过错;第1204条规定运输者、仓储者等第三人是第二层次责任主体,属于第一层次责任主体追偿权的行使对象。

  如前所述,人工智能产品责任的产品设计者的责任主体地位更加突出,与生产者的责任主体地位相同,强于销售者的责任主体地位。由于《民法典》第1202条和第1203条都没有直接规定设计者为直接责任主体,按照条文理解,设计者似乎应当归于《民法典》第1204条规定的“等第三人”的范围。如果这样处理,不仅与该条规定“等第三人”的要旨不符,而且不能对设计者以第一层次责任主体进行责任追究,也不能全面体现产品责任的功能。所以,由于人工智能的设计者和生产者往往不是同一主体,设计缺陷不能由生产者买单。

  所以,应当将人工智能产品的设计者作为《民法典》第1202条规定的责任主体,与生产者并列,为第一层次责任主体,并且不适用《民法典》第1203条第2款关于“因销售者的过错使产品存在缺陷的,生产者赔偿后,有权向销售者追偿”的规定,是承担中间责任和最终责任的责任主体。

  对此,人工智能产品责任的规则应当有所改进,增加设计者为责任主体,承担产品责任的中间责任和最终责任。

  有学者认为,自由意志是归责的基础,人工智能构成了对自由意志的根本挑战,对法律责任的认定影响甚大。依照《民法典》的规定,产品责任适用无过错责任原则,不以过错的主观意志为归责事由,上述见解在普通的产品责任中已经得到落实,在人工智能产品责任中不必予以强调。应当区别的是,承担产品责任的最终责任人的归责事由有所不同,生产者和销售者作为中间责任人,承担赔偿责任适用无过错责任原则,而生产者承担最终责任也适用无过错责任原则,销售者承担最终责任则适用过错责任原则,因销售者的过错使产品存在缺陷的,生产者赔偿后才有权向销售者追偿;反之,则不得追偿。

  人工智能产品责任中的设计者承担产品责任的中间责任,当然适用无过错责任原则;承担最终责任,究竟适用无过错责任还是过错责任,是需要厘清的关键。这是因为,设计者承担人工智能产品责任的中间责任,与生产者、销售者没有区别;当设计者承担最终责任时,究竟是比照生产者承担无过错责任,还是比照销售者承担过错责任,显然需要明确。

  笔者认为,人工智能产品的设计者承担最终责任,由于其与生产者的责任主体地位相同,故应当适用无过错责任,不能适用确定销售者最终责任的过错责任。当人工智能产品设计者承担中间责任时适用无过错责任原则,在承担最终责任时也适用无过错责任原则,只要人工智能产品存在设计缺陷,设计者无论有无过错都要承担最终责任。例如,生产者或者销售者对被侵权人承担中间责任后,设计者无论有无过错,都应当对设计缺陷造成的损害承担最终责任,生产者或者销售者都有权向其追偿。

  在这个问题上,人工智能产品责任规则应当在《民法典》第1202条和第1203条规定的基础上,进行必要的调整。

  在产品责任中,由于实行无过错责任原则,故侵权责任的最主要构成要件是缺陷。对此,认定人工智能产品责任的缺陷要件,对缺陷种类完全可以适用现行法关于产品责任缺陷的规定,即人工智能产品的设计者、生产者、销售者承担损害赔偿责任,都须具有设计缺陷、制造缺陷、警示说明缺陷或者跟踪观察缺陷这四种缺陷之一,否则不能构成人工智能产品责任。有学者认为,产品责任中产品缺陷判断标准应用于人工智能产品责任中有所偏差,但是并非不能解释和判断。反之,如果不是人工智能的缺陷造成侵权,而是用户自身的问题,则适用传统侵权责任规则就可以解决。笔者认为,其中所说的人工智能产品缺陷认定标准“有所偏差”,还不够准确,应当说常规的缺陷判断标准对人工智能产品缺陷而言针对性不强,需要补充有针对性的规则,才更为准确。

  传统产品责任的设计缺陷,主要针对生产者,而不是产品设计者。例如,1960年前后美国第一代加湿器采用的加湿喷雾,是将水烧开形成水蒸气,实现加湿功能,故造成他人烫伤的可能性极大,因此构成产品责任,生产者对造成的损害承担赔偿责任。这是典型的设计缺陷。

  在人工智能产品责任中,由于设计者的地位凸显,而使设计缺陷的独立性也凸显,设计缺陷将直接针对人工智能产品设计者的责任承担。无论是人工智能的算法本身存在的误差,还是形成的人工智能技术软件存在错误,只要构成设计缺陷,就构成设计者的人工智能产品责任,应当对造成的损害承担赔偿责任。

  通常认为,设计缺陷是指产品的设计,如产品结构、配方等存在不合理危险。考察设计缺陷,应当结合产品的用途。如果将产品用于所设计的用途以外的情形,即使存在不合理危险,也不认为其存在设计缺陷。《美国侵权法重述第三版:产品责任》对设计缺陷作出规定的是第2条(b),内容为:“当产品只可预见的损害风险,能够通过销售者或者其他分销者,或者他们在商业批发销售链中的前手的更为合理的产品设计加以减少或者避免,而没有进行这样的合理设计使得产品不具有合理的安全性能,该产品则存在设计缺陷。”这些见解都是针对一般的产品设计缺陷得出的结论,对人工智能产品的设计缺陷则缺乏针对性。

  人工智能产品的设计缺陷,首先应当确定也是人工智能产品中包含的“不合理危险”,这符合我国《产品质量法》第46条第1款对产品缺陷的定义,即“本法所称缺陷,是指产品存在危及人身、他人财产安全的不合理的危险”。有学者认为,人工智能产品的核心是算法系统,这使得软件越来越成为设计缺陷判断的重点。所以,人工智能产品的设计缺陷应当是人工智能产品软件系统存在的致人损害的不合理危险。

  以自动驾驶汽车为例。来自自动驾驶软件的设计缺陷或“算法黑箱”,使自动驾驶汽车本质上具有不安全性,相比于某些人类驾驶错误的可修正性,自动驾驶软件的设计错误或“算法黑箱”所造成的损失具有不可避免性。对于其软件设计中的明显漏洞,应当直接认定为设计缺陷;而对于具有深度自主学习能力的人工智能,其算法和决策行为必须能够可解释,否则应当认定其具有设计缺陷。

  制造缺陷通常是指产品在制造过程中所产生的不合理危险。《美国侵权法重述第三版:产品责任》第2条(a)项规定:“如果产品背离其设计意图,即便在制造和销售该产品的过程中已尽到所有可能的谨慎,该产品存在制造缺陷。”这些认定制造缺陷的方法同样适用于人工智能产品制造缺陷的认定,只是应当突出其针对性。

  在认定人工智能产品的制造缺陷上,首先是制造的人工智能产品不符合软件设计说明书和性能标准;其次是生产者制造人工智能产品技术水平差或者质量管理不善,产品的制造、加工、装配工序不符合要求;最后是对原材料、零部件的选择不当等。其中最主要的标准,是生产出的人工智能产品不符合不存在设计缺陷的软件设计标准和性能要求。例如,不论自动驾驶汽车的技术如何先进和复杂,其仍有出现制造缺陷的可能,只不过其制造缺陷的判断相对容易,即:只要发现产品偏离其设计的情形,就可以对其生产者提起制造缺陷之诉,如车辆摄像头、传感器、雷达等感知系统功能障碍或者安装错误,从而导致无法发现周围的物体、行人或车辆进而发生碰撞,这将构成制造缺陷的直接证据。

  在人工智能产品责任认定中,制造缺陷和设计缺陷的认定,对区分生产者责任还是设计者责任,具有决定性的重要意义。制造缺陷造成的损害则由生产者承担最终责任,而设计缺陷造成的损害由设计者承担最终责任。

  警示说明缺陷也称为销售缺陷。《美国侵权法重述第三版:产品责任》第2条(c)认为,警示说明缺陷是指“当产品之可预见的损害风险,能够通过销售者或其他分销者,或者他们在商业批发销售链中的前手提供合理的使用说明或者警示而加以减少或者避免,而没有提供这样的使用说明或警示使得产品不具有合理的安全性能,该产品则存在缺乏使用说明或者警示的缺陷”。我国法律关于警示说明缺陷没有规定在《民法典》中,而是规定在《消费者权益保护法》中,该法第18条规定:“经营者应当保障其提供的商品或者服务符合保障人身、财产安全的要求。对可能危及人身、财产安全的商品和服务,应当向消费者作出真实的说明和明确的警示,并说明和标明正确使用商品或者接受服务的方法以及防止危害发生的方法。”违反这一法定义务的,就构成警示说明缺陷。

  在人工智能产品责任中,警示说明缺陷在责任构成中具有更重要的意义。在将人工智能产品投入流通时,设计者、生产者、销售者应当保障他人的人身、财产安全,特别是对有可能危及人身、财产安全的人工智能产品,应当作出充分的警示和说明,即警示存在的可预见危险,说明正确使用和防止危害发生的方法。符合这一要求的,则就不存在警示说明缺陷,造成损害的责任应当由有过失的使用人承担;不符合这一要求的,则构成人工智能产品的警示说明缺陷,对造成的损害,设计者、生产者、销售者应当承担赔偿责任。

  在确认人工智能产品责任构成中,正确认定警示说明缺陷具有重要的实用价值。例如,L2-L4级的自动驾驶汽车都不是完全自动驾驶,特别是前两个级别的自动驾驶汽车,设计者、生产者、销售者不仅要警示车辆存在的风险,还须充分说明驾驶人的辅助驾驶方法,没有按照正确的辅助驾驶方法操控汽车就有可能导致危害发生。在当前发生的自动驾驶汽车交通事故中,L2级和L3级的自动驾驶汽车都存在操作不当而发生危害的可能,只有正确实施辅助驾驶方法,才能防止危害的发生。设计者、生产者、销售者不能仅警告驾驶员保持“警醒”并承担因驾驶辅助系统导致的驾驶责任,其必须采用针对驾驶辅助系统的容错设计,从而减少驾驶员的错误。在自动驾驶模式下,若系统未向用户发出警示和接管请求而发生事故,便可排除用户过失,直接推定产品存在缺陷而成立产品责任。如果按照警示说明要求的方法驾驶汽车仍然出现交通事故,就应当认定存在警示说明缺陷,因为警示说明不充分。如果造成事故的原因是驾驶人没有正确执行辅助驾驶方法,则不构成警示说明缺陷,同时,如果也不存在设计缺陷或者制造缺陷,就构成驾驶人的责任,不属于人工智能产品责任。

  我国《民法典》第1206条规定了跟踪观察缺陷,即:“产品投入流通后发现存在缺陷的,生产者、销售者应当及时采取停止销售、警示、召回等补救措施;未及时采取补救措施或者补救措施不力造成损害扩大的,对扩大的损害也应当承担侵权责任。”这一规定针对的是产品责任的发展风险规则。《产品质量法》第41条第2款第3项规定:“生产者能够证明有下列情形之一的,不承担赔偿责任:……(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。”《民法典》第1206条规定的“也”字,就是对发展风险造成损害在免责的基础上,如果未及时采取补救措施或者补救措施不力,就构成跟踪观察缺陷,要对扩大的损害承担赔偿责任。

  在人工智能产品责任中,跟踪观察缺陷具有重要价值。人工智能技术正在发展中,很多人工智能产品投入流通时的科技水平尚不能发现缺陷的存在,由于需要根据人工智能产品的特点调整我国的产品责任规则,以最大限度防范、降低和合理分配人工智能产品发展风险,尤其是需要完善人工智能产品发展风险抗辩后的损害救济分担机制,因而设计者、生产者、销售者在将这样的人工智能产品投入市场时,负有跟踪观察义务,及时发现缺陷,及时采取补救措施。未采取补救措施,或者采取补救措施不及时、采取补救措施不力的,构成跟踪观察缺陷,对扩大的损害应当承担产品责任。

  在审理人工智能产品责任案件中,正确判断、认定人工智能产品的设计缺陷、制造缺陷、警示说明缺陷和跟踪观察缺陷至关重要,关系到责任构成的认定、责任主体、举证责任的确认等,平衡好侵权法律关系中各方当事人的权益冲突。

  人工智能产品责任的损害赔偿责任并不复杂,依照《民法典》第1179条确定人身损害赔偿责任、第1183条确定精神损害赔偿责任、第1184条确定财产损害赔偿责任即可。应当研究的是,人工智能产品责任的损害赔偿是否可以适用《民法典》第1207条规定的惩罚性赔偿责任。

  《民法典》第1207条规定:“明知产品存在缺陷仍然生产、销售,或者没有依据前条规定采取有效补救措施,造成他人死亡或者健康严重损害的,被侵权人有权请求相应的惩罚性赔偿。”这里规定的第一种情形,是人工智能产品的设计者、生产者、销售者明知人工智能产品存在缺陷,却仍然生产、销售;第二种情形,是未尽跟踪观察义务,对具有发展风险的人工智能产品发现缺陷后,未采取有效补救措施,构成跟踪观察缺陷。因这两种情形造成他人死亡或者健康严重损害的,构成适用惩罚性赔偿的要件,被侵权人可以请求惩罚性赔偿。在一般情况下,可以依照《消费者权益保护法》第55条规定的方法,以实际损失作为计算基数,以2倍作为计算倍数,确定人身损害赔偿的惩罚性赔偿责任。

  对人工智能产品缺陷的举证责任规则应当如何调整,不无疑问。有学者认为,人工智能算法中的规则是由设计者、生产者设定的,相对于消费者,他们对最终出现的风险的预见和控制程度也更高。因此,有必要对人工智能产品是否存在设计缺陷实行举证责任倒置,即由产品责任的被告证明产品设计符合产品责任法的要求,这能够促使他们采取措施避免产品致损事件的发生。

  笔者认为,上述见解不无道理。但是,人工智能产品责任是无过错责任,受害人主张损害赔偿不必证明过错要件,已使其举证责任大大减轻。如果在缺陷的证明上再适用举证责任倒置规则,会使这类案件诉辩双方在举证责任的配置上违反“武器平等规则”。对此,可以借鉴医疗损害责任的举证责任的表见证明规则,实行举证责任缓和,既坚持了缺陷要件的举证责任由受害人承担的原则,符合《民事诉讼法》的规定,又能够消除受害人举证能力不足的障碍,使加害人一方承担适当的举证责任,是两全其美的举证责任调整办法。

  在德国法上,于医疗诉讼上,为减轻病人之举证责任,适用表见证明原则,即依据经验法则,有特定之事实,即发生特定典型结果者,则于出现该特定结果时,法官在不排除其他可能性之情形下,得推论该特定事实存在。表见证明并非举证责任之转换,而系一种特殊的事实上推定,属于证据评价之原则,被告得举反证动摇该推定,而由负举证责任之原告继续举证。

  按照这样的理论推导,证明人工智能产品缺陷的举证责任仍然由受害人一方负担,如果存在举证困难无法克服,则在其举证符合表见证明原则要求,即存在缺陷具有较大可能性时,推定人工智能产品存在缺陷(主要是设计缺陷),设计者以及生产者、销售者负担否定被侵权人表见证明的事实:能够推翻表见证明事实的,不构成缺陷;不能推翻表见证明事实的,认定缺陷存在,构成人工智能产品责任。

  在人工智能产品致人损害责任案件中,大概率存在产品使用人的责任。笔者采用通俗说法,构成人工智能产品责任的是“物的责任”,使用人过失使用人工智能产品致人损害或者造成自己损害的责任是“人的责任”。以自动驾驶汽车发生的交通事故为例,自动驾驶汽车存在缺陷,造成他人损害的,就是“物的责任”,即产品责任。自动驾驶汽车不存在缺陷,造成自己损害或者造成他人损害的,是因驾驶人的过失所致,就是“人的责任”,即自动驾驶汽车驾驶人承担机动车交通事故责任。自动驾驶汽车有缺陷,驾驶人驾驶汽车也有过失的,对造成的损害应当承担的责任就是“人+物的责任”,既有自动驾驶汽车的产品责任,也有驾驶人的责任,造成使用人自己损害的,适用过失相抵规则,依照《民法典》第1173条规定,减轻赔偿责任;造成他人损害的,是共同原因所致,构成客观的共同侵权,适用《民法典》第1168条规定,承担连带赔偿责任。

  对人工智能技术发展风险及造成损害的民法救济和防控,《民法典》和《产品质量法》规定的产品责任规范是可以胜任的。依照《民法典》和《产品质量法》规定的产品责任规则进行适当调整,形成人工智能产品责任的规则体系,并非仅具有权宜性,而是救济和防控人工智能产品损害的特殊侵权责任规则,是产品责任的组成部分,具有救济损害、预防损害和警示损害的调整功能。即使从人工智能技术的长远发展来看,人工智能产品责任对救济损害、防范风险也有肯定性的预期。在具体的责任规则上,对责任主体、归责原则、缺陷认定、赔偿方法以及举证责任等方面进行适当调整,就能够满足人工智能产品责任纠纷案件的法律适用要求。

  9.智能网联汽车数据安全的风险、冲突与规制:基于总体国家安全观的规范建构

  《数字法治》期刊由最高人民法院主管、人民法院出版社主办,是面向海内外公开发行的全国性数字法治领域的学术期刊。设有“特稿”“圆桌话题”“基础理论”“学术专论” “法治实践”“青年视点”“域外观察”等栏目,逢双月出版。该刊恪守求新、务实、严谨的理念,弘扬兼容并蓄的学术传统,注重网络法治、数据法治、智能法治等相关领域的重大理论与实践问题,旨在推动贯彻实施网络强国战略,加快数字中国、法治中国建设的理论研究,为推进中国式现代化提供有力的学术理论支撑。

  无论是工作汇报,产品介绍,还是法律研究报告、市场宣传文案,法宝智能写作系统都能为您提供高质量写作支持,满足法律工作者日常学习工作中各类领域的写作需求,提供源源不断的创意与灵感,全面助力您的文案写作。您可以在平台上选择不同的写作模型,输入关键词和要点,即可自动生成文档大纲与内容。平台内嵌法宝V6数据库,让您的内容创作有据可依。与此同时,智能写作平台还支持实时对生成文档进行修改和优化,确保文章撰写的准确性。

  开元体育

  “一键生成文章大纲”——输入关键词和内容要求,即可自动生成文章大纲,为您提供创作起点和清晰明了的写作思路。

  “智能生成文章内容”——GPT模型结合法宝数据库快速生成逻辑自洽、内容丰富的文章。

  “法宝V6数据库支持”——查阅生成结果的相关法律法规、学术期刊等信息。可准确理解法律术语,帮助生成符合要求的法律文件;能够自动匹配对应法律法规,实现法理逻辑处理自动化,增强文章权威性与可信度。法宝智能写作能及时跟踪法律法规的最新变化,避免使用已失效或废止的法律条文作为参考。

  本文声明 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北律信息网(北宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

下一篇:开元体育河北:支持廊坊依托燕郊中兴科技园发展嵌入式软件、人工智能等软件与信息服务业
上一篇:Snowflake:一家由数据驱动的生成式人工智能公司开元体育

咨询我们

输入您的疑问及需求发送邮箱给我们