人工智能刑事风险的样态评价与规制理念

熊波(西南政法大学法学院博士生,西南政法大学青少年犯罪研究中心助理研究员)
2019-06-24 13:35
来源:探索与争鸣杂志

纵使是在人工智能时代,强智能机器也无法凭借代码和编程,而成为独立的刑事责任主体。人工智能刑事风险的样态评价在于:智能机器犯罪主体评价具有人类依附性、智能主体不具备单独的认识和意志因素、智能产品的行为来源于人类思维的输出。刑法对于人工智能风险的评价,应当采取结果型风险的规制理念。其中,“结果”应当采取实质性解释,将其限定为行为创设的智能风险所具有的客观性、现实性、外界可识别性之危害结果,可以规避预防型理念的抽象与空洞致使的人工智能刑事风险肆意扩散至无刑事责任能力的智能产品之中,进而防范刑法理论体系的整体崩塌。

本文系《探索与争鸣》第三届全国青年理论创新征文活动的提名奖获奖论文,原载《探索与争鸣》2019年第5期,原标题为《人工智能刑事风险的样态评价与规制理念》。

正文之前是《探索与争鸣》杂志关于

青年理论创新征文专辑的编者按。

2018年,适逢学习宣传党的十九大精神和纪念改革开放40周年,为进一步鼓励青年学者深度、全面思考和阐释新时代全面深化改革过程中面临的诸多热点和难点问题,在上海社联党组领导下,在国家社科基金、上海市委宣传部与上海市新闻出版局专项资金资助下,《探索与争鸣》编辑部面向全国青年学人和青年学生,开展了主题为“从新时期到新时代:中国改革再出发”的第三届全国青年理论创新征文活动。本次征文活动历时一年,得到社会各界的大力支持和厚爱,共收到来稿900多篇。2019年1— 3月,编辑部本着公平、公开、公正的原则,严格按照编辑部初审、专家匿名复审和资深学者终审的程序,对所有来稿进行评选,最终 26 篇论文获奖。2019年3月29日,《探索与争鸣》编辑部在上海召开第三届全国青年理论创新征文颁奖大会暨“中国知识体系构建与青年使命”青年论坛。

阅读入选的论文,我们欣喜地看到,不少青年学者结合自身的研究领域与新时代国家改革发展的重大问题,尝试运用不同研究视角和学术范式来解释、解答新时代的新问题,并提出了不少颇有新意和创见的观点。这正契合了此次征文所主张的“学术研究与现实关怀结合”、“为解决和解释中国问题提供独到思路”的设想,也符合《探索与争鸣》杂志所坚持的当下性、公共性、跨学科、 思想性为核心的办刊特色,以及长期以来所倡导的“思想温暖学术、学术关怀现实”的办刊理念和“提倡自由探索,鼓励学术争鸣”的办刊风格。 此外,本届获奖作者体现的一个突出的特点是,近一半获奖者为90后学人。某种程度上,这标志着90后青年学人作为一个整体浮出历史地表,并逐渐成长为学术界的新生力量。新生代学人受过比较系统的专业训练,具有敏锐的问题意识,视野较为开阔,能够自觉将学术问题的研究和中国改革中的重大理论问题结合在一起。 当然,毋庸讳言,这些入选的作品,还属于青年学人学术起步阶段的尝试,还存在各种各样的瑕疵,有些还只是一个初步的探索或是并不十分成熟的想法。 此外,相比全国数量巨大的青年学者和在读研究生群体,本次征文的覆盖面非常有限;也由于征文奖项数量有限,还有一些比较有学术潜力的青年学者没能入选,这不免令人遗憾。

“青年兴则国家兴,青年强则国家强!”作为一本自诞生起就坚持把“与青年学人共成长”作为办刊使命的学术刊物,自2014年起,《探索与争鸣》在全国发起青年理论创新征文,至今已经举办三届,此外,编辑部还于2018年推出了“优秀青年学人支持计划”和“青年学人优秀论文支持计划”等活动,这些均得到各界支持并取得了不错反响。本着鼓励青年、支持青年的初衷,在纪念五四运动100 周年以及中华人民共和国成立 70 周年之际,《探索与争鸣》编辑部特开辟“五四·青年”专刊,并组织第三届全国青年理论创新征文专辑,集中选发此次征文获奖文章。这是编辑部的第一次尝试,肯定存在诸多不足之处,恳请学界给予包容和支持!我们也真诚欢迎广大青年学人继续关注、参与和支持编辑部的其他各项活动。——《探索与争鸣》编辑部

深度学习AI 通过反复的外界环境感应,将接收的数据信息结构化,并将认知的灵感集中于类似人脑中的神经网络之中,能够集中完成后续的深度学习。由于此类人工智能远远超越人脑的信息储存和知识认知功能,因而被称为“强人工智能”(AGI)。伴随着深圳高交会“全国首例机器人伤人事件”的发生,“强人工智能”概念逐渐占据中国科技市场,并逐渐延伸至刑法学界。至此,便有学者借助强人工智能认知架构的广度和深度,对其给予超前化评价,“人工智能的运用,不仅仅导致公众对于法律认知模式的重构,还会进一步对法律规则本身产生实质性的重构。”更有甚者认为,现有的刑事责任判定规则无法满足人工智能时代的情势发展,“当智能机器人在程序设计和编制范围外实施严重危害社会的行为时,智能机器人具有辨认能力和控制能力,因而具有刑事责任能力”。进而,提倡刑法立法应当关注新类型犯罪主体,一种有别于自然人和单位犯罪的第三类刑事责任主体——机器人。

然而,在一味地强调更改传统的刑事主体认定规则、扩充主观意志要素的囊括范围、调整刑罚的改造及预防功能模式之际,我们应当审慎思量:人工智能刑事风险的发展规模是否是人为可控的?人工智能产品所引发的危害行为是否是刑法意义上的犯罪行为?以及人工智能语境下纯粹机器人行为的辨认和控制能力的赋予,是否发挥出责任主体既存的必要价值?不可否认的是,现代科学技术本身体系的高度复杂性和发展进程中固有的潜在风险,导致专家无法精确地预测、评估和掌控科技发展的不确定性因素,而这些因素就是现代信息数据社会中所谓的“科技风险”。但人工智能刑事风险作为一种科技风险类型,同网络犯罪风险一样,都应当被视为经济、工业、医疗、交通等诸领域科技运用过程中的必然结果。过于夸大现实中的人工智能风险,将刑事责任主体扩散至机器人种类,并将事实意义上机器人的辨认能力与控制能力,作为刑法意义上犯罪主体的涵盖要素,是一种主观臆造、无的放矢的“乌托邦式”刑事风险。

如何划定人工智能刑事风险的事实范围,则取决于人工智能刑事风险的类型划分及其要素评价。在人工智能刑事风险的评估过程中,究竟采取何种理念去塑造刑法立法模式,需要权衡人工智能风险在不同环节与情境中所展现出的行为法益侵害程度与类型,这是人工智能刑事风险问题化解的首要前提。

一、人工智能刑事风险的样态及其要素置评

人工智能刑事风险的存留,是否意味着要动辄更改刑法的现有理论?这主要取决于如何理解和认知人工智能刑事风险。除此之外,考虑到当前司法实践中认定犯罪形式的标准与依据仍在于犯罪构成四要件模式,因而人工智能的刑事风险评价应当依据风险种类的差异予以类型化解析。

(一)主体风险:人工智能机器犯罪主体评价具有人类依附性

虽然有论者提出:“智能机器脑可以像人脑一样进化,产生自主意识和意志,并通过深度学习机制与嵌入成长经历,达到甚至超越人类的思维水平,有可能以‘人工人’的方式成为人类社会中新的一员。”但自主的行为意识,并不能作为人工智能产品(如智能网联汽车、智能服务机器人)成为一种新类型犯罪主体的理由。欲将人工智能的刑事风险单独归为产品自身的责任,只能从科技产品“主体”角度去理解。追根溯源,人工合成机器人是一种“非生物自主代理”,因为这是对机器人产生的现实过程所进行的价值定义。毋庸置疑,机器人作为人类的一种自主代理,如法人犯罪,同样是可以借助现有的刑事责任理论,去化解罪责自负原则的适用困境。但问题在于,针对并非出于行为人代理意志内的机器人自主行为,如何去认定刑事责任的承担主体?这就取决于控制能力和辨认能力能否赋予人工智能产品。

辨认能力和控制能力是刑事责任主体的认定要素。在人工智能主体的刑事风险中,辨认能力主要是对外界环境、事物的识别和理解能力。人工智能产品依据程序设置的感应系统,能将外界环境的变化和物体的移动信息转化为电子数据,从而储存在“机脑”之中。由于人脑对科技风险感知能力较弱,并且人脑不同于机脑,其运转依托于其他器官的能力存储和互动衔接。因而,两者内部构造与运作程序的迥异,表明人脑对于外界变化的理解能力永远较机脑逊色。基于此,在辨认能力方面,机脑甚至优于人脑。但笔者认为,纵使是单纯以风险预防为目标的科技刑法,也并不能仅凭优质的辨认能力,便认为智能机器具有刑罚规制的基础。因为刑法评价的刑事责任能力主体,不仅需要具有辨认能力,而且需要对实施危害行为的控制能力和刑事惩罚功能的接受能力,才能发挥刑罚制约的一般预防和特殊预防效果。显而易见,在超智能机器多元的仿生神经网络研究背景下,国家政策和道德伦理的内在约束,并不会允许智能机器完全具备甚至超越人类的生理特征,从而人机两方可以独立共存于世。

因此,人工智能产品的刑事主体风险应当附属于人工智能技术的开发者或者使用者等其他具备生活情感要素的相关责任人员,科技产品编程外危害行为的自由选择,并非是以情感要素为基础的控制能力所能涵盖的。简言之,在生活情感要素缺乏的现实情境下,人工智能产品即使能够感应自身对外界事物的危害行为的实施状态或是危害结果的发生过程,也无法进行自我约束或系统控制。智能编程运作外的无自由意志选择行为,很大可能来源于编程技术本身的缺陷抑或是科技发展固有的技术风险。因此,将人工智能产品的主体风险认定为人工智能的刑事主体风险的观点有失偏颇。

(二)主观风险:人工智能主体不具备单独的认识和意志因素

人工智能是否存在消极或者积极主观意志的可能,对于刑法评价人工智能刑事风险至关重要。罪过作为评价违法性认识的唯一要素,其是判别是否达到严重社会危害性认识程度的客观定型化和刑事违法化之标准。

人工智能发展在于人类对科技整体的感观与运用,归根结底,其系统反应的基础和根源在于人脑思维的信息输出。因而,人工智能产品实现科技风险的认识因素与意志因素,是以人类的思维为基础的。即使是在人类自由意志掌控外的智能产品的自由活动之情境下,人工智能的刑事主观风险也是与自然人的主观罪过心态相适配的。譬如,人类在创制智能产品时,首先会根据科技风险管理规则与自身对事物的感知,而将一套类似于人脑的思维数据的基础模式输入于机脑之中,其奠定了人工智能产品得以独立思考和感应之前提。进而,在使用者支配智能产品时,人工智能依据使用者的习惯操作和程序设置,开始独立应对外界环境的变化,并完成事物分析、数据整合,形成一套属于自身思维模式的数据信息。因此,智能产品的基础程序的内部与外部思维,都是依据支配人的基础思维模式展开的。而对于后续程序运行过程中的信息紊乱和感应失灵,都应当视为突破罪过心态的认识内容与意志支配范围的一种不可预料的意外事件。因为,在机器人发明者看来,“机器不仅要能创作出来,而且要意识到是它自己创作的。任何机制都感觉不到成功的喜悦,也不会因为困难而郁郁寡欢,或是因为犯错误而闷闷不乐”。因而,脱离自我控制的主观风险,去评价智能产品的“认识、意志”因素,并无任何现实意义。

总而言之,人工智能在实施客观危害行为之际,其并未拥有犯罪主观方面的认识因素和意志因素。人工智能单独主体风险并不存在,个体主观罪过也无从谈及。针对认识因素与意志因素,其应是科技产品的研发者和所有者、管理者与使用者的一种基础思维模式在机脑中的延伸。具言之:

其一,在人工智能产品的认识因素判断方面,明知危害行为或者行为产生的危险与结果,并不具有违背法律规范正义要求的不法意识。行为人所了解的有违法律规范的禁止和诫命,是建立在社会共同生活秩序的基本观念之上的,而并非明知危害行为所触犯的特定刑事条款。社会共同生活秩序的基本观念来源于日积月累的生活经验,以及社会合规行为的集体认同,并非科技数据能够依据代码和编程创制出来的。纵使部分学者认为:“技术会有精神,技术能发展成为最灵敏的工具,同人类的大脑一样成为精神的重要载体。”这种自主意识内的“精神”也并非是在体验世间冷暖后的认识抉择,仅是纯粹数字世界观的意念,甚至可称其为“冷精神”或“程序精神”。概言之,立足现实生活体验的角度,人工智能并不具备罪责非难的认识因素基础。

其二,在人工智能产品的意志因素判断方面,智能产品并不具有积极或消极心理态度或独立思维,表明其对危害结果的现实化状态无任何感知。全球首例Uber 自动驾驶汽车致死案,引发公众对人工智能产品独立责任的法律思考。即使在5 级的强人工自动驾驶的功能能够实现自动化程度之际,也要求驾驶员在出现紧急情况时,能够及时接管汽车。这说明人工智能技术级别无论多么强化,也需要人类的背后掌控。其考虑的便是人工智能产品在面对突如其来的外界变化之时,无法实现排斥和期望的心态表达。而此类情境发生,可以归责于测试驾驶人、测试行为的支配者或者技术主导者的一种疏忽大意或者过于自信的过失心态。新科技的问鼎于世,伴随的是技术与人类生活之间的长期博弈。我们无法将自身的严重疏忽或者危害放任的错误意志,嫁接给人工智能的科技风险。因而,认为人工智能产品在自己的意志与思维活动中具备独立刑事责任的观点,本身就是一个伪命题。

(三)行为风险:人工智能产品的行为来源于人类思维的输出

社会行为论属于当下可采信较高的一种行为理论,其认为人类的行为是由社会环境所决定的,危害行为表现出对社会既存客观事实的敌对态度。因而,刑法上所谓的行为乃指“意志所支配或可以支配的具有社会重要性的人类行为”。在科技社会中,人类所能支配的科技行为风险范围远远小于科技风险客观存在的幅度。面对科技发展的突飞猛进,刑法所关注的科技社会中的刑事风险行为并不是一种纯粹的客观事实。社会危害性评价结合行为意志的推动力,才是刑法所聚焦的危害行为。因而在社会行为论基础上,目的行为论得以铺陈开来。该理论将社会中的刑法行为置于以目的、动机的周全计划为主要内容的构架之中。其表明行为的目的性乃是行为的基础,故行为可谓人类为了实现其目的,而依预定计划实施的目的行为。利用人工智能风险的行为,也是为了实现便捷的实务操作、快速的逻辑推演以及全面的细节把握,而进行的一系列突破固有行为模式的举止。

因果行为论作为早期的自然行为概念者所撷取的理论,其表明行为发展乃是一种因果历程,行为人为了实现内心的意思表达,而导致外界事物的变动。其中前者作为原因,后者作为结果。借助目的行为论与因果行为论对科技产品的独立行为进行阐释,两者同是将人工智能的危害行为视为一种计划、目的之发展过程,以探明科技产品对行为发展的最终危害结果的心理态度。无独有偶,人格行为论者更为直截了当地指明,行为是“行为者人格主体的现实化”,身体动静之所以加以刑事归责,是考究人格与环境的相互作用下人格责任的最终结果。该观点就直接排斥将机器人的危害行为视为一种刑法行为,因为智能行为是一种纯粹的信息数据反馈的自主行为,并不涵盖任何人格要素在其中。仅从智能行为的产生方式来看,人工智能与人类智能存在着天壤之别。人类智能是人脑进化后的产物,而人工智能仅是脑力劳动的转移。单就语言、思维和文化层级而论,人工智能都远逊色于人类智能,人工智能的语言、思维和文化的学习内容都源于人类数据的基本输出与现实社会的客观环境。换言之,机器的深度学习仍是建立在对人类认知能力的模仿过程之上的。由此,人工智能自主性决策行为,实质上是一种模仿性、延伸性、吸收性的学习。机器人的学习能力也各有千秋,智能深度学习最终的广度和深度,仍取决于人类基础思维的输出。

人工智能技术从审查、研发、生产再到自主决策,其规则的透明性、可责性以及准确性都依据“算法”的好坏得以实现,而这都最终取决于数据的精确度。在编程设计者看来,算法并不会预测智能产品行为能否产生危害,以及认识到危害行为是否违反刑法立法规则。因此,单独强调智能产品外在危害行为的客观化,必然会忽视“算法识别”这一问题根源。鉴于此,虽然部分学者提出,“智能机器人完全可以通过不断学习规则,从而建立‘自省’与‘道德感’”;但是这种后天学习而来的“自省”和“道德感”来源于内部决策系统的调和,对于超出行为理论所能包容与认识范围的危害结果,即使是受设计和编程的程序范围外的行为支配,也无法将其定性为刑法意义上产品个体的“危害行为”。

二、人工智能刑事风险的结果型规制理念与路径

在具体识别、解构人工智能刑事风险的要素之后,如何重塑人工智能刑事风险的规制理念,便成为人工智能社会发展与刑法理念亟需回应的时代命题。

(一)客观归责:人工智能刑事风险防控的人性色彩

在社会治理智能化趋势的推动下,人工智能技术属性和社会属性紧密融合的趋势愈加显著。各类科技风险的交织混杂与含糊不清,极易诱发刑事风险规制的笼统化、一体化和不合比例性。进而,致使刑事立法中出现科技法益概念泛化、处罚的早期化以及重罚化等现象。在多种刑事风险体系布局之中,个人创设的智能风险应当与公共决策的风险结合起来分析。在科技风险治理过程中,当前我国社会主要呈现出主观认识的“私人风险”极易脱离“公共政策”的规划和布局,国务院颁布的《中国制造2025》《新一代人工智能发展规划》以及工业和信息化部发布的《促进新一代人工智能产业发展三年计划》等相关的智能技术研发、设计、生产的政策性文件,都明确对智能产品的法律风险防控手段和价值定位加以限定,要求智能产品的研发、设计应当“以推动人类可持续发展为中心”。

将强人工智能产品视作独立刑事责任主体者,极易脱离智能科技的发展规划,这表明主观创设的刑事风险并非来源于客观现实化的风险。尤其对于新生代人工智能技术而言,要契合这一客观归责要求,需要将客观危害结果的刑事归责在刑事风险类型的基础上进行细分,将允许性的危险与规范保护目的相结合进行客观归责,防止主观风险的归罪理念渗入刑法立法之中。

1 人性疏通:制造不被允许的风险。对于人工智能刑事风险强调预防性面向的发展,一味吹捧有失明智。预防性强制规范与民生社会的集中最大化利益密不可分,这意味着预防性规范的设计,应当是基于民生刑法观的最优化、最大化理念而进行的。智能产品的民生利益在刑法规范中的立体架构,相应地要求刑事立法注入民生新情怀、加速民生条款的新转型,以期实现科技风险社会中民生福祉保障与刑法立法的双向互动式衔接。制造不被允许的危险作为客观性归责的事实要件,要求只有行为人使用、研发、管理智能科技产品的行为,在制造或者提高(增加)了不被科技社会所允许的危险条件下才能成立,且必须附加“科技风险能够被识别和认知的可能性存在”之前提。超前的科技风险的危害评定,是在“不确定性”条件下进行的,所以评价标准要么是未知的,要么是不可能量化的。而人工智能刑事风险需要为刑法所规制,就要求其能够具有被识别和认定的标准,但不应按照通用的一般社会标准为依据,而应当结合具体情形,对人工智能产品在不同环境下的刑事风险予以类型化,进而逐一进行刑事责任认定。

以智能勘探领域为例。人工智能技术的测试和使用者即使在测试或者使用阶段,明知信息系统可能会存在潜在性的失范,但在符合特定情形的要求下,由于不可避免智能风险所导致的损害后果,不宜动辄即认定为是一种刑法意义上的危害结果,抑或是将该种行为支配的主观心态认定为一种过于自信的过失。而在智能勘探的具体使用、维护阶段,使用者应当谨慎观察信息传感器的正常运转功能,如果因为疏忽或者故意放任重要设备的缺失导致危害结果的发生,相关责任主体应当为智能产品的刑事风险承担刑事责任。

2 客观化归责:实现不被允许的风险。如前所述,人工智能产品兼具技术操作本能与社会认知属性的双重属性。因而,在人工智能产品按照模板组织采集到大量数据或者迅速感应外界信息进行深度学习的过程中,发生的一系列危害行为或者导致的诸多现实危害结果的成因,是纷繁复杂的。实现不被允许的风险重点在于危害结果发生的原因,助益行为与结果的脱离。行为虽然为法益侵害风险创制了事实条件,但结果的发生并不是由该风险所致,而是偶然和其他中断行为与智能风险同在的必然结果。这一现象在信息交互的智能行为过程中普遍存在,因此,在人工智能刑事风险中强调公民的基本认同感尤为重要。智能产品的行为始终依托现实社会环境不断改造、进化。实现客观化归责,必须将现实社会既存的偶然和必然因素,与行为人主导的犯罪行为区别开来。

以智能驾驶领域为例。行为人对于自动驾驶汽车的部分功能性丧失的疏忽情形,虽然客观上直接造成了法益侵害结果,但就具体行为场合区分判断,行为人的实行行为并未给被害人带来相当高的危险性。日本学者山口厚教授将这种情况视为“作为危险之现实化的因果关系排除”。该理念为科技风险的规制路径疏通提供更好的指导,方便规范科技研发在公共民生的可能限度内予以展开。

3 规范性制约:构成要件的保护范围。通常而言,对于具备制造并实现不允许危险的情形,适用客观规制理念符合国民对价值指引的期待利益,符合构成要件的保护范围。因此,客观科技风险规制理念中客观性和民本性色彩,不仅在于公共利益的维护,更在于公共行为的规范指引。在允许性刑事风险下,“允许性”表明应当与正当化的合法根据不同,即使存在刑法的客观风险,也应当排除对客观行为的归责。因为,在面对现代科技时代创新意识之际,我们首要任务应当是让智能科技的新发展符合现有的法律规范、规则和理念,在这个过程中对于当前我们无法精准把握和理解的智能科技新问题,应当严格按照法律制度创设的价值予以化解,在这一基础上再考虑制度规范的调整问题。对于人工智能刑事风险的问题化解,这一任务本质上就属于刑法教义学的研究范式。在虚拟环境和实体环境协同融合的处境下,刑法立法却滞后于人工智能发展趋势,人工智能产品运行风险的愈加复杂化,给客观归责的构成要件的规范符合性,创设了大量难题。

以智能技术研发领域为例。智能技术研发专家借助国家大力倡导发展智能创新战略这一机遇,在明知自己团队研发的智能产品在未来的持续使用过程中,会出现编程内的系统紊乱或者部分性功能缺失的情况下,为一味地追求功名以及科技创新资金等利益支持,仍放任不成熟的智能技术投入到智能产品市场,连续多年造成辐射范围较广的智能产品使用、管理事故,致使国家、人民的人身和财产利益遭致重大损失。对于上述行为,现行刑法却没有专门性的罪刑设置与之相匹配,导致此类行为缺失相应构成要件的刑事可罚性评价,刑法无法对其进行相应归责。对此,可以相应设置非法滥用智能技术罪,明确滥用智能技术研发的具体标准,以规范罪名的科学适用。

(二)模式权衡:“预防型”抑或“结果型”规制理念

在明确采取客观规制理念的手段,将人工智能刑事风险责任划归给特定自然人主体的行为之后,即将面临如何抉择或确立人工智能刑事风险的规制理念,以合理化解方兴未艾的智能科技风险的问题。

1 科技风险的潜在性:预防型理念的孕育而生。人工智能发展的不确定性带来诸多新挑战,人工智能作为一种影响面广的颠覆性技术,正在加速风险社会的转型。未来的经济生态是一个人机协作、配合的新时代,在人类生产力创新的过程中,智能产品成为劳动力的替代者,并占据着重要地位。因而,为适应大数据、人工智能和实体经济深度融合的新时代趋势,部分学者提出,虽然智能产品的进化历程远远落后于人类发展阶段,但是研发技术的提升速度并不亚于人类。那么,智能产品的所有权人为了更优质地享受科技服务,必然会“呼吁立法机关来界定机器人的权利主体地位,承认并赋予机器人的权利主体地位。这既是权利发展的内在规律,也是社会发展的必然趋势”。从这一观点我们可以看出,保障人工智能产品发挥更大的实用价值,采用“前进式”权利主体的界定方式,完全是出于一种预防型立法理念。因为,在所有权人的权利范围内进行周全保护的情形下,非要将权利主体前置化为一种毫无责任能力的智能产品,无非是出于对科技风险手足无措的情绪性、功能性立法。尤其是在刑事法领域,用前置化、预防型的立法手段安抚并回应国民对智能科技的“体感民安”,无异于折损法益的必要性保护功能。

此外,预防型智能风险规制理念因前置的底线过于抽象和主观,导致预防型立法理念指导的制度规范本身就是一种风险存在。因此,我们不禁反思:难道在智能时代,我们应当依据主观臆想的科技风险,作为立法触角无限延伸的依据?其实不然,预防型立法应对智能风险采取一种“特殊原理对一般原理的侵蚀”,致使刑法内部概念衔接的矛盾与冲突显现。在无限可能的智能风险下,立法者多出于对被害人的社会感情的顾虑,采取前置化刑法防控手段以消解潜在风险的不安感。然而,有学者无形中扩大预防型立法的弊端,强调科技风险的不确定性,要求国家将“预防原则”置于科技风险防控的首位。甚至有学者认为,智能机器人与自然人的根本差异在于生命体的构造不同;与动物的差别在于辨认和控制能力的有无。进而,承认强人工智能产品的独立意识与意志,为倡导机器人与自然人享有同等的权利和义务做铺垫。由此可知,采取预防型立法理念,是否需要动摇刑事责任根基的观点本身,存在不同的观点理解。因此,在对待人工智能刑事风险的问题之上,即使是在预防型规制理念内部,强人工智能产品的独立责任主体地位,也已经是一种超前性评价。

2 科技风险的客观性:印证结果型理念的合理性。不同于预防型人工智能刑事风险规制理念,结果型理念强调危害结果的现实性、客观性以及外界可识别性。在预防型理念下,侵害结果以及因果关系地位的下降,是对法益概念的实体内容日趋模糊化与单薄化的必然结果。预防型理念通常与“超个人法益保护”的强调相契合,典型地表现在危险犯立法趋势的扩张上。与此相反,结果型刑事风险规制理念强调刑法立法应当与现实基础、制度规范相平衡,从而主张平衡性立法,以此保障刑法的权威性、稳定性和严肃性。而违背结果型的风险规制理念,过度虚夸智能产品独立实施危害行为的能力,以动摇刑法立法的根基,无异于陷刑法于无源之水、无本之木的困境之中。过度前置化思维,超越了普通国民对人工智能刑事风险的认知水平,使得刑罚的一般预防与特殊预防不复存在。

需要澄清的是,人工智能时代下结果型刑事风险规制理念的塑造,并不意味着驳斥刑法理论框架内的部分科技犯罪行为。如《刑法修正案(九)》对非法利用信息网络罪的“预备行为正犯化与纯粹的实行行为”的二元形态教义立法确立,以及帮助信息网络犯罪活动罪的犯罪参与归责原理之突破,都是符合结果型刑事风险规制理念中的行为现实化与客观化的评价范围的。但这并不意味着将危险性的智能危害行为纳为一种犯罪行为,就是预防型刑事风险规制手段,其仍属于结果型规制理念涵盖的范畴。两者区分的关键之处在于:行为创设的科技风险属性是否具备现实性、外界可识别性。譬如,网络预备行为创设的风险在于其行为本身就是客观违法的,但其能够通过结果数量的量化评价实现客观规制。因而,《刑法》第391 条之一——利用大数据平台编造、故意散播虚假信息罪的单纯编造行为,就属于预防型立法的表现。

有鉴于此,笔者认为,在既有的刑法理论框架内,采用结果型人工智能刑事风险规制理念,足以应对科技社会形势的变幻莫测。针对“结果”进行实质要件的深度解读,人工智能的主体、主观、行为风险都应当依附于自然人的刑事责任认定。如今学界对于人工智能产品刑事风险的独立化归责之主张,是一种过于情绪化、过于理想化的预防型立法理论。人类充分的主观能动性应当体现在现行科技刑法体系内,化解智能危害行为评价的遗漏与滞后,形成理性化、公众认同的刑法应对模式,以彰显刑法理论与刑事立法的功效性和实践性。

(三)路径抉择:风险防控手段选择的理性化与现实化

人工智能刑事风险的部分夸大以及无限恐慌,致使刑法立法手段必须及时关注科技新发展,提出风险治理的新策略。由于网络犯罪领域的技术发展,自由人权的尊重和犯罪控制之间的功能平衡,成为网络风险领域刑事治理手段的首选标准。在预防型风险规制理念占据优势地位之际,自由与秩序的功能平衡并非宣传标语,关键仍在于刑法立法手段的理性选择。面对社会的高速转型和传统犯罪形式智能科技之异化,刑法立法的民主化和公开化,是防止过度科技犯罪化所应具备的手段。基于此,构筑风险防控的科学手段,可以尝试确立以下三种类型:

1 风险防控手段不能过于激进或唐突。人工智能技术是基于客观现实依据的算法集合。因而,智能产品的系统运作必须依靠既存的事实为背景。除此之外,人类感观是社会实践阅历的主观反映,个人生存的具体环境和行为性格之差异,决定了人类感观具备复杂的主观意志性。相较于智能产品的记忆算法和深度感知能力,这便是一种人类主体优势。譬如,在辨别部分故意遮掩和扭曲图景的场合下,即便人脑面对着诸多残缺的或者修改过的图片,主观意识依然能依靠现实印象和整体模块提炼完整图片,这是长期的生活历练赋予人脑的恒定特质。除此之外,人工智能刑事风险并不是随意想象的产物,囿于算法技术的程序性与深度学习信息采集的单向性,风险防控手段应当保持一定的谦抑性,不能过于唐突或激进。有鉴于此,技术理念上的操作可行性与技术产品现实化运用的可行性并不同等。因此,除了技术限制以外,智能产品的“克隆人”属性及其仿生神经元的主体资格,会阻碍强人工智能产品独立刑事责任资格的能力确立。因此,塑造人工智能产品的独立法律责任,是一种不考虑其他外在因素的现实结合、唐突、“跃进式”的风险规制手段。

2 风险规制方法秉承技术性与比例性。人工智能风险社会的本体论考察与犯罪构成的本身存在形式的特性问题研究不谋而合,都旨在强调一种“区分”的理论分析工具。只不过人工智能刑事风险与其他犯罪危害行为的区分之处,在于智能行为更多包涵行为技术性。风险规制方法应秉持比例性,防止将与智能危害行为因果关系脱裂的结果纳入行为人刑事责任的承担范围。在人工智能时代,法益保护或是智能风险规制手段缺乏比例性,意味着保护目的的空洞、抽象和泛化。因此,应当在否定人工智能产品独立刑事责任主体资格的同时,确立人工智能刑事风险防控的比例性和适度性原则。概言之,比例性原则是将智能手段技术性的合法内容予以排除在刑法规制范畴之外。诸如,确立可允许性人工智能风险的刑事合法性事由。前文所述,人工智能刑事风险采取结果型规制理念予以指导刑法立法的建立,并不排除科技风险中危险犯的设置,因为其危害结果本身就是可控制、可视化的。而正是考虑到互联网、智能工具本身涉及的公共民生以及浓厚的技术分析,法益保护的扩张才具备可行性。因此,刑法立法的依据在于确立法益保护的可行性与必要性,以及技术性与比例性的规制手段,其是对结果型理念的实质“危险”可识别性和现实性的价值遵循。

3 风险消解进程呈现类型性与阶段性。刑法理论的实践意义在于指导过程中注重效率性,集合立法事实的类型化分析,提前将主观臆造的智能刑事风险予以涤除。诸如,将人工智能的刑事风险划归为主体、主观、行为三种风险类型评价。其中,如果智能机器的刑事责任主体这一前提条件不成立,即使满足后续的独立意志能力的主观要素风险,也无法将罪责单独归为智能产品。同理,将人工智能刑事风险的客观归责理论,细分为“制造、实现、符合”法律规范系统内的危险,人工制造的危险类型本身是科技创新过程所能容忍的,亦无法将其单独进行刑事归责评价。就事实层面而言,机器人仅是具有操作物体以及感知周围环境的能力,出于生活情感要素的缺乏,智能机器具有独立的行为或者自由意志能力,便是杜撰、空想出来的想法。在人工智能时代,主观风险与客观风险在危害结果的作用力上总是有所差异的。通过类型化思维的运用,能够较为妥适地处理复杂社会生活中,忽视存留于各处的流动或过渡阶段的无关危险的事实。

而风险消解进程中强调阶段性,旨在表明人工智能风险产生是一个过程化结果,不是一蹴而就的。人工智能不仅在于依据智能技术的强弱和高低,将研发步骤分为强人工智能和弱人工智能,更在于最终步骤的节点。人工智能技术产品研发阶段的终点,在于强人工智能的深度学习,始终是按照研发者、使用者或管理者的基本思维模式进行的。因而,纵使处于研发的顶峰期,强人工智能的刑事风险仍然是人为可控的。贸然将机器人视为“假想敌”,提出深度学习型人工智能的经验,会导致人工智能的智力与人类的互动不相匹配。当然,法律一直都在禁止任何一种可能直接造成损害的行为,但这是否必须诉诸刑法则有待考究。在科技社会中也不例外,风险的前期预防确有必要,但前期预防的限制在哪?引入的人工智能刑事风险的根基何在?以及据以完全颠覆现有刑法归责理念的理由是否充足?我们无从得知。面对科技全球化时代,我们总是习惯于将特定领域的治理经验套用在人工智能风险治理领域中,然而,这些经验本身由于情境的差异,有时与我们努力化解的智能刑事风险的治理困境并无关联。

可见,基于未来人工智能产品运作系统的设计预想和国家人工智能战略的规划布局,人工智能技术并无法真正实现如同自然人一般,进行饱含生活情感的行为自由意志和事物品质的独立价值判断。因而,采取积极刑法立法观,单独设置人工智能产品的刑事责任主体,的确不符合社会基础,更有违时代的科学认知精神。虽然随着智能科技事实的立法风险剧增及其样态多元化,与之相匹配,未来中国的刑法立法从技术层面考虑,需要进行适当规模的犯罪化;但是在此过程中,更应当强调人工智能刑事风险立法的问题意识、现实意识和实证支撑,提升人工智能产品法益侵害行为的直观性、可感性。鉴于此,人工智能刑事风险归责边界意识,要求明晰人工智能刑事主体、主观、行为风险可归属于自然人的评价范畴;采用结果型刑事风险规制理念,对人工智能刑事风险进行阶段化和渐进式评价,理性塑造新时代与国家人工智能战略相契合的刑法应对模式。

(本文原载《探索与争鸣》2019年第5期,系《探索与争鸣》第三届全国青年理论创新征文活动的提名奖获奖论文,原标题为《人工智能刑事风险的样态评价与规制理念》,原文注释从略。)

    责任编辑:韩少华