许钟灵、吴情树:人工智能体过失刑事风险的因应
来源 I 广东省法学会 2021-01-14 17:55:37
7 0 0



目次

引言

一、人工智能体时代的过失刑事风险

二、强人工智能体刑事责任主体的地位之争

三、强人工智能体研发者与使用者过失犯罪的归责原则

四、强人工智能体研发者与使用者过失犯罪的责任承担

结语

引 言

顺循文明的发展轨迹,人类社会先后经历了以蒸汽技术为基础的第一次技术革命、以电力技术为本体的第二次技术革命以及以计算机及其信息技术为标志的第三次技术革命,当前进入了大数据、云计算等并驾齐驱的第四次技术革命,即人工智能时代。这既是经济社会发展的强烈需求所致,又是技术服务于时代使命之宗旨的必然结果。在这场技术革命浪潮中,世界各国逐渐把发展人工智能技术作为科技战略的重点,力图在新一轮国际科技竞争中掌握主导权。当前,我国在《新一代人工智能发展规划》中大致勾勒了人工智能发展的政策框架,在国家层面进行积极战略部署,明确提出我国人工智能发展“三步走”的战略目标和“三个全面”的重要任务。


“这是最好的时代,也是最坏的时代。”人工智能在给我们带来高效化、便利化的“最好时代”的同时,也给我们带来了法律风险、伦理风险、技术风险并存的“最坏时代”。然而迄今为止,各国关于人工智能体可能带来刑事风险的应对还未形成自臻的规则系统,面对人工智能体的犯罪案件,仍然依托于权责裁量。本文拟立足于对人工智能体刑事责任主体地位之诘问,以“新过失论”为基础,建构由违反注意义务的研发者、使用者为主体架构的刑法教义学体系,并结合被容许的危险理论、危险分配理论和信赖原则等多维角度合理限定过失犯的处罚范围,探讨人工智能体犯罪的归责路径,寻找增进人工智能的发展福利与防范潜存的刑事风险之间的平衡点。

一、人工智能体时代的过失刑事风险

刑事风险是指受刑法保护的法益可能受到犯罪行为严重侵犯的风险。这种“严重侵犯”包括两种情况:一是对我国刑法保护的法益造成实际危害。二是对我国刑法保护的法益没有造成实害但具有造成实害的可能性。德国学者乌尔里希·贝克在《风险社会》一书中提出:“风险的来源……是期望于对自然的控制能够日趋完美……”人工智能时代的风险,正是贝克所描绘的风险社会的另一种表现形式,这种风险的形式表现为人为的风险。人类创造了使自己的生产生活更加便捷的人工智能体,并且期望设计出完美的制度框架以控制可能危及人类自身的风险。然而,由于目前的人工智能技术存在着不可避免的缺陷,各国先后涌现多起由人工智能技术引发的刑事案件,一时间爆发了聚焦于人工智能技术的广泛的社会声讨。


人工智能体时代的过失刑事风险可以分为人工智能体本身的过失刑事风险和人类利用人工智能体创造的过失刑事风险。人工智能体研发者或者人工智能体使用者故意利用人工智能体实施犯罪行为时,人工智能体本身就是研发者或者使用者的犯罪工具,这种犯罪与通常的犯罪没有什么区别,可以直接适用刑法的有关规定予以定罪处罚。但是,对于人工智能体本身的过失而导致的犯罪,则由于过失犯归责的判断标准等传统过失理论的归责困境长期存在,且无论是科幻泰斗阿西莫夫提出的“机器人三原则”,还是日本学者新保史生教授提出的“机器人使用八原则”都无法保证人工智能体的研发者、设计者制造出对人类法益完全没有侵害的人工智能体。因此,人类在应对人工智能体研发者或者人工智能体使用者过失导致人工智能体产生的刑事风险时显得力有不逮,这便使得人工智能时代的过失犯罪常常出现归责间隙。


笔者认为,对人工智能时代的过失刑事风险进行刑法规制的正当根据就在于在法律制度缺位的情况下调和两种人之间产生的差距。一种是拥有与人工智能相关的数据、技术资源优势的人,他们利用人工智能体创造风险、定义风险并从风险中获益(侵害者);另一种是作为人工智能风险对象的人,他们循途守辙安分守己,却无力参与决策进程,不得不成为被人工智能技术攻击的“目标”(受害者)。如何权衡与回应人工智能技术的发展和由此引发的过失刑事风险的冲突,乃是既有刑法学所关切的理论与现实命题。解决以上问题的关键在于否定人工智能体本身具有单独的刑事责任主体地位以及合理配置人工智能体研发者、使用者的刑事责任。

二、 强人工智能体刑事责任主体的地位之争

以是否拥有推理能力和解决问题的能力为分类标准,可以将人工智能体分为弱人工智能体、强人工智能体和超强人工智能体。弱人工智能体,指的是具备一定推理能力和解决特定问题能力的人工智能体。这些人工智能体虽然可以在设计和编制的程序范围内像人类一样思考甚至进行深度学习,但其实现的只是创造者的意志。强人工智能体意为达到人类水平的、能够独立应对外界环境挑战,具有自主认知、思考能力的人工智能体。如果某一人工智能体“已经跨越了‘奇点’,……在所有领域都比最聪明的人类大脑更智能”则是超强人工智能体。此时的人工智能体开始脱离人类的控制。学者们对弱人工智能体不具有刑事责任主体地位的认识基本是一致的;而对于强人工智能体是否具有刑事责任主体地位,学者们莫衷一是;“人工智能奇点”是否能够到来仍是一个未知数,超强人工智能的出现与否具有不可预测性,对于超强人工智能可能带来的刑事风险,并非现阶段的刑法亟需回应的问题。因此,本文探讨的是强人工智能体是否具有刑事责任主体地位。


(一) 强人工智能体刑事责任主体地位“肯定说”


刘宪权教授等学者从应然层面将人工智能体作为刑事责任主体,并提倡针对其特点设立特殊的刑罚处罚方式。理由之一,强智能机器人与人一样具有辨认和控制能力。强智能机器人通过“电子眼”“电子耳”认识到事实层面的行为,并通过程序和算法对行为的性质、后果、意义进行辨认。其有可培养的控制能力和极其快速的处理能力、反应速度,能够凭借大数据与高速运算能力,在自主意识和意志的支配下对行为做出精准的控制。理由之二,强智能机器人比单位更接近于自然人,更有理由成为刑事责任主体。单位是一个集合体,单位内部成员的辨认能力和控制能力是通过单位整体表达,在整体意志支配下实施严重危害社会的行为;而强智能机器人能够在独立的自主意识和意志支配下实施严重危害社会的行为,不需要通过其他主体作为辨认能力和控制能力的表达媒介。理由之三,强智能机器人能够接受刑罚处罚。因现行刑罚种类在强智能机器人身上完全无法奏效而否定其刑事责任主体地位的逻辑陷入了由果溯因的逻辑怪圈。正确的逻辑链条是:考虑强智能机器人是否具备刑事责任能力,从而确定其能否成为刑事责任主体,在其符合犯罪构成要件时考虑应否对其进行刑罚处罚以及采用何种刑罚方式对其进行处罚。增设“删除数据、修改程序、永久销毁”的刑罚种类能够达到犯罪预防的目的,解决无法适用现行刑罚种类的人工智能犯罪的问题。


综合上述“肯定说”学者的基本观点:强人工智能体的辨认能力和控制能力都可以通过相关人员的参与输入,具备与刑事责任主体同样的辨认能力和控制能力。在探讨强人工智能体是否能成为刑事责任主体时,应把目光聚焦在何为自然人和单位作为刑事责任主体的共同点上,如果强人工智能体具备这一必备要件,其就有成为刑事责任主体的可能性。应当先考虑强人工智能体是否能够成为刑事责任主体,再考虑能通过何种刑罚方式处罚。


(二) 强人工智能体刑事责任主体地位“否定说”


笔者是强人工智能体刑事责任主体地位“否定说”的支持者,并认为,虽然强人工智能体刑事责任主体地位“肯定说”的观点言之凿凿,但从其理由与结论的逻辑关系理性地分析,有很多值得商榷之处。


其一,人工智能体不具有真正的辨认和控制能力。人类的“智能”和人工智能体的“智能”来源不同:人类的“智能”来源于无特定目的自然选择,人工智能体的“智能”来源于研发者带有特定目的的预先程序设计和算法编制。自然人的辨认能力和控制能力与人工智能的辨认能力和控制能力也不同:人类的辨认能力和控制能力是物种进化的结果,人工智能体的辨认能力和控制能力的产生依赖于人类精密的制造和加工过程。因此人工智能体缺乏感知对自己的行为在刑法上的意义、性质、后果的辨认能力和控制能力。其二,对人工智能体进行刑罚处罚达不到刑罚的目的。无论是删除数据,还是修改程序,抑或最严厉的永久销毁的“刑罚种类”,都既不能阻止人工智能体再次实施犯罪,达到特殊预防的目的,也不能规诫其他人工智能体不要重蹈覆辙,达到一般预防的目的。“使犯罪人受剥夺性痛苦是刑罚的惩罚性质与内在属性”,而增设的刑罚种类在本质上均忽略了依托于数据和算法的人工智能体缺乏对刑罚实质意义的认识。其三,人工智能体和单位不具有可类比性。单位本身有独立于其自然人组成人员的特殊利益,因此,将单位拟制为法律主体符合法律主体利己性的前提假设。人工智能体服务于人类社会的存在目的体现了其工具性的根本价值,而工具性价值又决定了其具有天然的利他属性。


人工智能体不具有刑事责任主体在生活过程中逐渐形成的感觉和情绪,即缺乏内心感知和情感因素。根据费尔巴哈的“心理强制说”,如果在法律上规定有犯罪必有刑罚,刑事主体就会为了避免刑罚所产生的“痛苦”,而选择因抑制犯罪行为所导致的“小的不愉快”。人工智能体只能基于预先设定的精密程序对接收到的各种信息进行识别、分析和总结,无法基于内心感知来权衡比较实施犯罪带来的“小的愉快”与犯罪后所带来的受刑罚处罚的“痛苦”,从而作出评判和行为选择。人工智能体缺乏内心感知,不知道自己可以克制自己的行为,因此,当人工智能体实施了恶的行为时,不能对自己的行为负责。人工智能体也无法感知违反法律规范的消极后果,进而选择是否违反法律规范,因此也无法用法律惩罚。无独有偶,维特根斯特也否定强人工智能体的刑事责任主体地位。他提出“即使机器能够模拟人的脑电波,也不足以产生人的思维。”休伯特则从人的思维不可能被数字计算机程序化、形式化的角度来否定强人工智能。赵秉志教授以“相对自由意志”为判断标准,认为由于强人工智能体不具有相对的自由意志,无论强人工智能体发展到何种高级程度,其存在的意义仍然是一种工具价值,不会因为追求自由意志而偏离为人类服务的轨道。


总之,强人工智能体由于缺乏和自然人一样的情感因素和内心感知,尽管可以利用大数据、云计算等现代信息技术,对事物作出准确的反应和判断,但其对行为性质和意义以及可能造成的后果上缺乏感知,也无法对此作出决定实施与否的选择,而且本身也无法感受来自刑罚惩罚的痛苦,对其所谓的谴责或者非难将失去意义,使得其本身无法单独成为刑事责任的归责主体。

三、强人工智能体研发者与使用者过失犯罪的归责原则

否定了人工智能体的刑事责任主体地位,也就意味着不能对人工智能体单独进行刑事归责和直接判处刑罚。笔者基于“以自然人为中心”的立场,引入“新过失论”,对人工智能体的研发者、使用者的过失责任进行刑法规制,确保具体案件中刑事责任承担的清晰性。如果人工智能体的研发者在研发人工智能体时,人工智能体的使用者在使用人工智能体时违背各自的注意义务,且不适用信赖原则,则有可能对人工智能体造成的危害结果承担过失刑事责任。


(一) “新过失论”的引入与优势


以结果无价值论为本质的“旧过失论”认为,只要行为人对危害结果的发生具有预见可能性,且行为与危害结果间成立刑事法律上的因果关系,那么行为人就成立过失犯罪。也就是说“旧过失论”单纯考虑行为人的结果预见可能性,只要在构成要件该当性和违法性阶层上一致,则责任阶层是故意还是过失在所不问。譬如,高速交通工具的运营、矿山开采等极大地推动社会进步的活动,其本身蕴藏着越来越多的法益侵害危险。在这些活动中,行为人对其行为可能产生的危害社会的结果都有一定的预见可能性,在不考虑行为人对危害结果能否有回避可能性的情况下,按照“旧过失论”的观点,行为人都应构成过失犯罪。以“旧过失论”的标准来认定过失犯罪的做法扩大了过失犯的处罚范围且与社会公平正义、经济效率理念相悖。在社会发展的新情况、人们的新观念下,“新过失论”应运而生。“新过失论”主张,不能追究能够预见危害结果,并且履行了结果回避义务的行为人的过失刑事责任。“新过失论”跳出了传统过失理论仅在责任阶层讨论注意义务的窠臼,自此,对过失犯罪的研究,逐步及于违法性及该当性的领域。“新过失论”要求人工智能体的研发者、使用者在研发、使用人工智能体时遵循各自相关的注意义务,在技术可行的情况下利用“大数据在宏观层面能够预测未来社会的发展方向、在微观层面能够为各行各业提供重要指引的优势”,借助算法和程序收集、分析和使用数据,加以深度学习,预测人工智能体可能带来的社会所不容许的危害结果,并且有效避免结果的发生。这就确保了人类对风险的绝对控制力,“把风险意识转向人类如何能有效防范风险的技术手段、制度安排及机制实施等方面”。


(二) 注意义务和结果避免义务


根据“新过失论”,探讨人工智能体研发者、使用者的注意义务和结果避免义务的判断应当以其所处时代的人工智能技术发展水平为判断标准。


1. 注意义务和结果避免义务的来源


根据“新过失”理论,过失必须同时具备行为的注意义务和结果的避免义务,这些义务的来源是设置过失犯罪义务内容的前提。人工智能技术自身的功能价值由技术规范所决定,其所产生的社会价值则由社会规范所决定。因此,人工智能体研发者、使用者注意义务和结果回避义务的来源包含技术规范和社会规范。社会规范即相关领域的法律法规、相关行业规范、伦理道德规范以及研发者、使用者的承诺。首先,相关领域的法律法规是注意义务的来源,学界几乎没有争议,但对于相关行业规范是否为注意义务的来源,学界众口不一。学者储陈城反对将行业规范纳入注意义务的来源,他提出,由于刑法所保护的利益和行业规范所保护的利益并不完全重合,所以行业规范和刑法上的注意义务的标准并不一致。行业标准是非国家组织所制定的,所以其制定的标准缺乏民主主义的正当性学者刘宪权认为,尽管相关行业规范没有体现由立法机关制定法律的民主性,但是对研发者设计和编制程序的过程起到约束作用才是判定人工智能体的研发者有无预见可能性应当考虑的因素。如果人工智能体研发者或者使用者具备了上述的注意义务之后,还同时要求其具备结果的回避义务,只有违背结果回避义务,发生了危害社会的结果,才能构成相应的过失犯罪。


笔者主张相关行业规范是人工智能体研发者、使用者注意义务和结果回避义务的来源之一。因为相关行业规范作为一种具有行为约束力的内部准则,能够强化研发者、使用者的风险意识和责任意识,并内化为自我控制的行动,从源头上防范人工智能技术带来的刑事风险。其次,伦理道德规范作为注意义务和结果回避义务的来源,能够确保人工智能体研发者、使用者秉持科技伦理优先的原则,在正确的价值理念指引下保障人工智能体“向善”,促进人类社会有序发展。最后,研发者、使用者的承诺也应当是研发者、使用者注意义务和结果回避义务的来源。从研发者的承诺可以推知研发者已经预见人工智能体可能引发的风险,从使用者的承诺可以推知使用者已经预见到了未按照人工智能体的操作说明来使用人工智能体可引发的危险。如果将研发者、使用者的承诺排除在注意义务的范围之外,相当于忽略了认定研发者、使用者构成过于自信的过失的可能性。


2. 注意义务和结果避免义务的内容


(1) 人工智能体注意义务的设置不能偏离人类命运终极关怀的轨道。人类给人工智能体设定的功能并非价值无涉的,它们恰恰体现了一定的目标。“任何法学理论总是倚赖关于人的理论”,因此研发者和使用者所有注意义务和结果回避义务的内容都应当建立在有益于人类的基础上,而不能是优先考虑人工智能技术发展的利益。当人工智能体有可能实施的犯罪行为所侵害的法益涉及人的生命、自由等人类相关的重大法益时,应当对研发者、使用者赋予较高的注意义务和结果回避义务;如果该犯罪只不过关乎与人类无关的相当轻微的法益时,应当相应地减少研发者、使用者的注意义务和结果回避义务。这也印证了乌尔里希·贝克对风险社会的探寻,“在自然和传统失去它们的无限效力并依赖于人的决定的地方,才谈得上风险”。


(2) 研发者的注意义务和结果回避义务包括源头控制、双重监督和明确提示。源头控制是指人工智能体研发者在研发过程中植入控制程序,始终保持对人工智能体的控制能力,对研发的人工智能体可能带来的社会危害或不稳定因素有足够的认识并且努力消除。双重监督包括研发时的监督和继续监督。研发时的监督是指研发者在研发时应当设置安全性测评,排除研发当时所能预见的安全隐患,确保研发的人工智能体向安全可控的方向发展。继续监督是指若发现尚未投入使用的人工智能体存在可能致人损害的缺陷,人工智能体研发者应当通过技术手段修补缺陷,阻止人工智能体实施危害活动;若发现已经投入使用的人工智能体出现研发时难以预料的危害,人工智能体研发者应当采取必要的召回措施以防止损害结果进一步扩大。明确提示是指因人工智能体的类型不同而对人工智能体使用者的操作要求也有所不同,人工智能体研发者必须明确提示人工智能体使用者在使用中应保持何种类型、何种程度的注意义务,并对使用过程中可能存在的安全隐患作出预警。


(3) 人工智能体使用者的注意义务和结果回避义务是谨慎询问、合理使用和及时报告。谨慎询问是指由于使用者作为非专业领域人士,对于人工智能这项尚未成熟的技术还不具备足够的相关技术知识和能力,不能判断自己的行为可能对法益所造成的风险,为了确保安全、规范地使用人工智能体,应当谨慎地询问人工智能体研发者,尽快掌握相关知识和能力,将人工智能体的使用风险控制在提前预测的范围内。合理使用是指人工智能体使用者遵照人工智能体设定的合法用途和使用规范来使用人工智能体,以保证人工智能体在研发者设定的安全有序的程序下运行。及时报告是指在人工智能体使用者在使用过程中发现人工智能体潜存的技术瑕疵可能对人类造成损害或者可能被应用于非正当的社会目的时应当及时向有关人员报告。


(三) 被容许的危险理论和危险分配理论


“数字化世界密集性和复杂性的背后,风险将如影随形。”人工智能技术的发展是时代的大势所趋,如果将与人工智能技术的发展相伴而生的风险都作为违法来对待,社会将停滞不前,所以为了促进社会生产的发展,就必须在一定程度上容许危险的存在。“新过失论”为防止过苛追究人工智能体研发者、使用者的过失刑事责任,在认定研发者、使用者的过失刑事责任时基于被容许的危险理论和危险分配的理论并设定不同的结果预见义务和结果避免义务,把原来由研发者、使用者所承担的所有危险在一定条件下分配给受害人。适用被容许的危险理论对研发者、使用者以及危险活动的其他参与者进行危险分配以上述主体在危险活动中负担各自的注意义务为前提条件。


广义的理解认为,被容许的危险之所以存在,是为我们的日常生活所必需的。狭义的理解将被容许的危险理解为具有引起危害结果的实质危险,认为该危险为了救济其他利益而不得不容许存在。本文所讨论的是狭义的被容许的危险。许多不可避免的危险行为随着社会生活的复杂化而日益增多,实施了此类对社会发展具有必要性与有用性的危险行为的行为人,如果遵守了其行为所必需的规则,就不能认为其是过失犯罪。根据被容许的危险理论,对社会有益的、不可缺少的行为,即便其自身是侵害法益的危险行为,但在合理的范围之内,也应承认这种危险行为的合法性。英国学者安东尼·吉登斯曾言:“风险总是要规避的,但是积极的冒险精神正是一个充满活力的经济和充满创新的社会中最积极的因素。”诚哉斯言,人类在拥抱人工智能技术带来的高福利的同时,不可避免地要在一定程度上容许“理性冒险”。被容许的危险理论展示的是一种比较权衡,应当注意的是,这种比较应当以行为实施时,行为本身具有的危险性与可预见的被害法益的价值、发生结果的危险性、侵害法益的盖然性等相比,可预见的被害法益的价值越大,被害法益的价值越高,发生结果的危险性越大,则被容许的危险理论的适用范围越窄。


社会全体成员为了得到技术红利就必然要付出代价,这一代价就是技术的发展所必然蕴含的危险。为了更好地平衡与人工智能体实施的活动相关的参与者之间复杂的利益,处理好风险承担的复杂法律关系,如何分配已知和未知的风险成为亟待解决的一个问题。所谓危险分配理论,指活动参与者在从事危险活动时应当在互相信赖的基础上,予以合理地分配危险,共同承担危险后果。一方面,应当根据活动的危险程度合理地确定各参与者应该分配的危险。对于在涉人工智能体的活动中,为了保护人工智能体研发者的创造积极性,所有的活动参加者都应当拥有并且负有部分注意义务,共同承担休戚与共的责任,而非仅仅由人工智能体研发者承担。如果人工智能体实施的危害行为是由于被害人或者第三人的故意或重大过失所致,在人工智能体研发者、使用者已经承担注意义务的前提下,应当将危险归属于被害人或第三人。另一方面,应当根据参与者的能力合理地确定参与者应该分担的危险。一般而言,能力越强,应当为其赋加的注意义务就越多,其应当容忍的危险也越多。如果某一参与者在参与危险活动中对危险的发生不具有预测以及避免的能力,则不能依据危险分配理论分配其所应当承担的危险。以人工智能体的研发者为例,与其他活动参与者相比,其属于拥有人工智能技术的人员,具备直接控制人工智能系统的专业能力的现实条件,因此有必要为其制定更多的注意义务,在危险的分配中也应当配置更多的危险。


(四) 信赖原则的适用


“新过失论”为了进一步限制过失犯罪的处罚范围,不得不将信赖原则引入。信赖原则关切的是,行为人合理地信赖他人能够遵守规则并采取适当的行动,但是由于其他参与人辜负了行为人的信赖而与自己的行动相结合发生构成要件的结果,就不应认为行为人应当承担责任。信赖原则最早适用于交通运输领域,后来逐步被扩张适用于企业责任事故、医疗事故等对防止危险具有分工合作关系的所有领域。


对人工智能领域的过失刑事风险进行规制亦可适用信赖原则。人工智能体研发者的信赖基于两个方面:一是基于对人工智能技术的信赖。当研发者研发出用于正当社会目的并且不存在导致法益侵害危险的人工智能体,人工智能体却在程序规则外活动,并且引发了具有严重社会危害性的实害结果,此时则不应追究研发者的过失刑事责任。二是基于对人工智能体使用者的信赖。人工智能体研发者信赖人工智能体使用者履行了谨慎询问、合理使用和及时报告的注意义务,但是使用者并没有尽到注意义务,进而使得人工智能体实施了犯罪活动,产生的危害结果就不可归责于研发者的过失。人工智能体使用者的信赖同样基于两个方面,一是基于对人工智能技术的信赖。当人工智能体使用者履行了所有为其设定的注意义务,但是人工智能体超出程序规则实施了犯罪行为,就不应认为使用者对人工智能体的犯罪存在过失的罪过形式。二是基于对人工智能体研发者的信赖。“非专业人士对专家系统这一抽象体系建立起普遍信赖是风险社会的基本特征之一。”而随着社会分工越来越精细化,“人们对‘社会体系的信任’,表现为对各行各业的‘专家体系’的充分信任……专业知识成为人们安全感的重要基础。”因此,人工智能体使用者对人工智能体研发者的信赖有利于普通大众更好地把握科技发展的契机,系统地处理科技引致的危险和不安全感。


信赖原则的适用需要存在社会相当性:第一,有完善的社会分工制度。在人工智能体研发者和人工智能体使用者之间存在合理的权责分工负责体制,明确设定各自的注意义务,能够建立分工合作的制度信赖。第二,存在实质的相互信赖关系。在人工智能体出现了不适当行为的具体先兆时,不能合理地期待人工智能体可以在其研发者和使用者的高度信赖之下从事适当行为。例如人工智能体以往从事相应行为的时候过失频率较高、出现反常行动的可能性大等情况。第三,具有实质的控制权限。如果人工智能体研发者或者使用者不具有实质上保证某项危险不发生或者对阻止危险发生的现实支配权限,就不能视为对危险领域具有“控制权限”的行为人。因此,当人工智能体研发者或使用者与危险控制权限发生实际脱节,只拥有形式上的控制权限的过失领域不能适用信赖原则。

四、强人工智能体研发者与使用者过失犯罪的责任承担

强人工智能体研发者和使用者的过失刑事责任具体又分为以下情形:第一种情形,强人工智能体研发者、使用者违反直接的结果预见义务和结果回避义务时,可能承担一般过失犯罪的刑事责任。例如,人工智能体研发者在研发强人工智能体时因为应当预见该人工智能体存在可能发生致人损害的结果却没有预见,或者已经认识到研发的人工智能体可能发生危害结果,但过高估计自己避免结果的能力而怠于采取结果避免措施,并且由此发生了刑法构成要件性法益的侵害后果;人工智能体使用者由于疏忽大意的过失或者过于自信的过失,没有按照人工智能体的规范操作流程使用人工智能体并且导致了刑法构成要件性法益侵害的后果。第二种情形,人工智能体研发者违反间接的结果预见义务和结果回避义务时,可能接受监督过失犯罪的谴责。人工智能体研发者的监督包括事前组织相关危险评估,事中督促人工智能体使用者按照操作规程执行,事后及时完善相关程序。监督过失非难的起点来源于监督者违反了预见自己的行为将引起被监督者造成危害结果的义务,且没有采取一定的措施避免被监督者的过失行为引发的结果。


(一) 强人工智能体研发者与使用者构成共同过失犯罪的责任承担


人工智能体研发者在研发人工智能体时因过失使得人工智能体存在缺陷,且人工智能体使用者在使用该人工智能体的过程中违反了该人工智能体的规范操作流程,人工智能体在此情形下造成的危害结果应当由具有共同过失的人工智能体研发者和使用者共同承担,以过失共同犯罪来定罪处罚。


虽然我国刑法并未对“共同过失犯罪”有明文肯定,但是“共同过失犯罪”的相关法理适用可在一些具体条文和司法解释中窥探一二。根据我国《刑法》第二十五条的规定,立法者不但没有否认“共同过失犯罪”这一概念,甚至进一步明确“共同过失犯罪”的处罚方式不同于共同故意犯罪。有学者提出,立法之所以肯定“共同过失犯罪”这个客观现象和概念,但却不认为“共同过失犯罪”是共同犯罪,是综合考虑了在制定现行刑法的时代背景下,我国刑法理论界对于“共同过失犯罪”基本呈现一边倒的否定态度,且我国司法审判实践中极少出现由于否定“共同过失犯罪”而造成冤错案件的情况。另外,2000年《最高人民法院关于交通肇事刑事案件具体应用法律若干问题的解释》第五条第二款也肯定了“共同过失犯罪”。理由如下:第一,共同故意犯罪要求意思联络形成于着手实行犯罪之前或者实行犯罪的过程中。该款中单位主管人员、机动车辆所有人、承包人或者乘车人与肇事人的意思联络存在于犯罪已经实行完毕的既遂形态中,所以该款不能解释为共同故意犯罪。第二,承继的共同犯罪要求共同犯罪只能存在于犯罪既遂之前,但是继续犯是例外。继续犯在继续期间,虽然犯罪已经达到既遂,只要行为仍然处于继续状态的,加入共同犯罪的行为人也可以成立共同犯罪。但交通肇事罪不是继续犯,所以该款不能解释为承继的共同犯罪。由此可见,我国并没有否认“过失共同犯罪”。


(二) 强人工智能体研发者与使用者构成竞合过失犯罪的责任承担


人工智能体研发者的监督过失行为通过人工智能体使用者的行为间接导致了危害后果成为发动监督过失的直接依据。


在监督过失中,监督者与被监督者是共同过失犯罪还是过失竞合犯罪的争议,大多数观点认为是过失竞合,少数观点认为是共同过失。主张监督过失是过失竞合的学者主要是从监督者和被监督者的地位、是否是“注意义务共同体”以及危害结果的效力角度来论述。从监督者和被监督者地位来看,人工智能体研发者和人工智能体使用者处于不平等的地位。处于被监督者地位的人工智能体使用者应当接受处于监督地位的人工智能体研发者为代表的“专家系统”的规划指引和监督管理。共同的注意义务是共同过失犯罪一个重要的主观因素,从监督者和被监督者注意义务可知,由于人工智能体研发者与人工智能体使用者之间并没有构成一个“注意义务共同体”,因此,监督过失不是共同过失犯罪,而是过失竞合的表现形式。就危害结果对监督者与被监督者的不同的效力而言,人工智能体研发者的过失必须借助人工智能体使用者的行为才能造成危害结果,而人工智能体使用者的过失可以独立地产生危害结果。


依笔者之见,监督过失是数个行为人的过失并存的竞合。在涉及人工智能体监督过失情形中,人工智能体研发者和人工智能体使用者都是应采取某种防止行动却没有采取,最终导致了结果发生,但二者的注意对象内容不同。人工智能体使用者的注意对象是危害结果,其应当预见自己的行为直接产生的结果,并且不得由于过失行为导致这一结果的发生;人工智能体研发者的注意对象是被监督者的行为,其应当预见自己的行为将引起被监督者的过失行为,并避免被监督者实施过失行为。根据西原春夫教授提出的并存的竞合和重叠的竞合的划分方法,如果过失竞合的各行为人的行为可以单独成为结果发生的独立原因的,称为并存的竞合;如果只有一方的过失能独立导致结果发生的,并且可以防止他方对于结果发生的,称为重叠的竞合。在人工智能体监督过失犯罪中,人工智能体使用者处于独立地位,人工智能体研发者如果采取适当的行为,则可以防止人工智能体使用者的过失行为导致结果发生,因此监督过失属于重叠的竞合。


虽然我国刑法理论中只有疏忽大意的过失和过于自信的过失这两种过失形态,没有明确监督过失这一过失形态,但是隐含着监督过失责任内容的因子,监督过失分别符合疏忽大意的过失和过于自信的过失的基本特征概念。监督者能够预见自己不履行监督义务的行为可能引起被监督者的过失行为从而发生危害社会的结果,因为疏忽大意而没有预见,这种情况契合疏忽大意的过失的心理特征。监督者已经预见自己不履行监督义务可能导致被监督者的过失行为,从而造成危害结果,但轻信自己的技术、经验等能够避免,这种情况与过于自信的过失的心理特征没有本质差别。

结 语

“科学技术总是涉及风险观念”,以人工智能、大数据和云计算为代表的日新月异的科学技术在一步步地改善人类社会生活面貌,同时也增加了大量的不确定性、未来性的风险。涉人工智能犯罪是人工智能时代产生的新样态的犯罪,新旧事物之间的关系从来都是“藕断丝连”的,因此,对于涉人工智能犯罪的研究仍需要以现行刑法规定为切入点,以前瞻性的回应与规范之维弥合科技发展和风险社会之间的鸿沟。“预防犯罪比惩罚犯罪更高明”,引入“新过失论”有利于强化人工智能体研发者、使用者的规范意识,更能有效控制与消解人工智能时代的过失刑事风险,为转型时期以人工智能为代表的新兴技术在技术价值和法律价值这两个价值世界之间的碰撞中产生的“转型”效应提供有效的创新激励,实现以人类的安全和福祉为目标的人工智能刑事法治。


(责任编辑:陈毅坚)


来源| 法治社会期刊

0人打赏
发表评论
请先 注册 / 登录 后参与评论
评论
推荐阅读
"华为实验室起火"?官方回应
东莞市委宣传部回应第一财经记者表示:今天下午,一个在建的项目着火,没有人员伤亡。该建筑与实验室并无关系,正在装修和建设之中,没有投入使用。9月25日下午消息,网友爆料称华为位于东莞的松山湖实验室突然起火,火势不小,现场浓烟滚滚。据报道,松山湖消防救援站已经赶往救援。从网友发布的视频来看,着火的是一栋大楼,现场烟雾强烈,整个视频画面中都是黑色的烟雾,看起来火势不小。据了解,华为松山湖基地是华为终端公
2020-09-26 00:47
《关于改革社会组织管理制度促进社会组织健康有序发展的意见》
中共中央办公厅 国务院办公厅印发《关于改革社会组织管理制度促进社会组织健康有序发展的意见》近日,中共中央办公厅、国务院办公厅印发了《关于改革社会组织管理制度促进社会组织健康有序发展的意见》,并发出通知,要求各地区各部门结合实际认真贯彻执行。《关于改革社会组织管理制度促进社会组织健康有序发展的意见》主要内容如下。为深入贯彻党的十八大和十八届二中、三中、四中、五中全会精神,进一步加强社会组织建设,激发
昨天 21:55
广东省法学会
3000块一桌,就吃这?一群百万大V傻眼
为什么我们既需要袁隆平,也需要李子柒
华为“断供”十日:“绝版”产品被热炒
一家四口同日死亡?连云港警方通报

推荐阅读

谁在定义“被害人有罪论”?
“甩锅秀”秀出美政客政治操守无底线
"华为实验室起火"?官方回应
《关于改革社会组织管理制度促进社会组织健康有序发展的意见》

推荐作者

纸上建筑
算法的牢笼甚于差评的阴影
麟剑28
【世界民族文明史系列】坎纳拉人与印度遮娄其王朝
杨昇说说
骑手不只是困在系统里,更是活在系统里