数智观点:人工智能技术参与审判过程的司法治理研究
科技水平的提升促使人工智能飞速发展,传统的人力使用在大幅减少,工作效率不断提升。我国当前社会经济快速发展,大量案件涌入法院,“案多人少”矛盾突出,人工智能技术作为一种提升效率的强大工具,被逐渐应用到司法系统中。本期,上海人工智能研究院数字化治理中心主任彭嘉昊将围绕人工智能技术融入审判过程中的治理难题,谈谈AI在司法系统的应用现状和未来。
法律作为社会管理的重要组成部分,被称为维护社会管理的最后一道屏障。在传统的法律人看来,法律的最大魅力就是法官审判的自由裁量权,在于对正义的理想追求。关于审判究竟是追求效率还是追求公平?这个问题在业内一直有很大的争议。但是随着社会的发展和群众法律意识的提高,每年都会有大量的案件涌向各级人民法院,其中知识产权、金融领域的案件在一些省的年增幅甚至超过了100%。伴随着案件数量的不断增加,“案多人少”的问题愈加凸显。在这种现实情况下,人工智能技术作为一种提升效率的强大工具,被应用于司法系统是必然的趋势。与其说是技术拥抱司法,不如说是法律人主动拥抱技术。
近些年来,法律界对人工智能技术的关注度也在不断提高,大量有相关背景的专业人士在这个领域不断探索和研究。笔者也有幸经历了这些年技术向法律领域的融合,也亲身感受到法律界对于人工智能技术看法的不断变化。总体来说,法律和人工智能是完全不同的专业领域,其看待问题的方法和关注重点完全不同,人工智能技术融入审判过程,主要面临着以下治理难题:
其一,对于人工智能技术在审判中扮演何种角色,是从属还是替代,存在争议。这个问题从根本上决定了人工智能技术在审判过程中的地位,究竟是辅助还是过程干预?也决定了算法、数据在审判过程中的边界,包括决策机制、数据输入边界等等。
其二,人工智能技术和审判的底层逻辑差异巨大,如何将二者进行融合是非常困难的现实问题。这个融合问题决定了人工智能技术在执行层面的落地深度,究竟是在审判环节的全面应用,还是仅仅在部分流程性案件的小范围应用?也决定了算法、数据在构建审判标准、效率与公平决策的具体执行问题。
其三,诉讼当事人对人工智能技术的接受程度,这是对人工智能技术在审判中应用效果的考验,决定了人工智能技术是否可能广泛被社会接受的问题。可解释性成为必须面对的问题,即如何向诉讼的利益相关者解释人工智能的决策机制,让他们可以在个案中感受到公平。
人工智能技术在审判过程的发展和应用
1. 完整案件的审判过程
一个完整案件审判过程主要包括立案、发送传票、开庭(举证质证、法庭调查、法庭辩论、法庭笔录)、宣判、裁判文书送达,整个过程可以分成两个部分,即程序性工作与实体性工作。如立案、发送传票、文书送达主要属于程序性工作,开庭和宣判主要属于直接关系案件结果的实体性工作。当然,类似于金融、知识产权领域的批量诉讼案件,因为每个案件除了主体、金额等特定部分外几乎都是一样的,一旦确定同类案件的裁判标准后,法官在个案的自由裁量空间很小,整体也可以归入程序性工作的大框架之中。
2. 人工智能技术在审判过程的发展
人工智能技术在审判中的底层技术主要有:自然语言处理(NLP)、深度学习的语义检索、文本分析、语音识别和语音交互、图像音频和视频技术、大数据、区块链、训练模型、法律知识图谱、在线身份识别、TAR(技术辅助审阅)、预测性编程(predictive coding)等。随着人工智能技术在近些年取得巨大进步,其在审判中的应用是一个不断演化的过程,整体而言就是从程序性工作迈向审判实体性工作,从主要关注效率问题到开始关注公平性问题。
(1)从程序性工作到审判实体工作
人工智能技术之所以具有“颠覆性”,是因为它开始模拟人类的“创造力”,开始替代人类的脑力劳动,而不仅仅是替代人类的体力劳动。人工智能非常擅长处理人类厌恶的大量重复性填表和批量比对工作,所以最早应用在审判程序性工作中,如整理文件、签发资料、资料检索等;然后逐渐应用到复杂的审判实体性工作中,如量刑建议、案件检查等。
审判的程序性工作并不影响法官的自由裁量权,却占用了法官大部分的工作时间。近些年,法院的信息化建设大大提高了法官、书记员及案件参与人的办事效率,如采取RPA技术(机器人流程自动化,Robotic process automation)自动批量生产格式文本,采取语音语义识别技术在开庭现场同步笔录、采取OCR对纸质文本进行扫描转化等,受到了法院和当事人的广泛好评。
人工智能技术在审判实体性工作中主要用于为法官提供参考或决策依据,如采取类案检索和算法推送为法官裁判提供裁判尺度或量刑预测,采取动作捕捉和情绪算法(情感计算,Affective computing)辅助法官识别当事人在庭审供述的真伪等。
我国目前正处于人工智能技术攻坚的时期,模拟人类情感、价值判断的人工智能是我们未来的重要发展方向。在可以预见的未来里,算法模型将会越来越精准,而数据输入也会越来越逼近真实的现实环境。以目前OpenAI最先进的通用语言模型GPT-3为例,其参数量达到了惊人的1750亿,拥有强大的计算能力,完成翻译、问答、文本等复杂的行为,其生成的新闻同人类的作品真假难分,甚至超越了人类的水平。无论我们是否担心,人工智能未来一定会做出同法官极为接近的裁判结果,从一个辅助性的工具,变成与法官共同工作的伙伴。
(2)从提升效率到关注公平公正
人工智能的核心能力是提升效率,以上海浦东法院的金融类案全流程网上办案系统为例,通过要素式立案辅助、网上立案系统、智能庭审系统、法律文书智能辅助系统、电子卷宗归档系统五大模块,可以大幅提升案件的办理效率,仅文书写作一项就可以比过去节省95%的时间。但效率并不是审判工作的唯一考量标准,在全世界大部分国家的司法实践里,审判工作的核心考量标准永远是个案的公平公正。
人工智能技术的依赖算法模型和外部数据,但无论是算法模型的创造者,还是输入的法官经验、推理和案件材料,都带有带有鲜明的“创造者特色”,其带来的片面理解和考虑不周全,造成了所谓的“算法歧视”。在效率大幅提升的同时,人工智能技术在审判中面临的公平性问题,诸如怎样建立算法模型、怎样选择输入数据等,就成为了摆在面前的难点。以江苏省高院的刑事审判系统为例,这个系统的算法模型是基于江苏省高院的判定标准,输入的数据也是基于省内的案件资料。我们先不考虑算法模型的建立是否科学,单纯从输入的数据和审判倾向上来看,具有明显思维地域特征,用来指导其他省份的审判工作,明显就底气不足。
鉴于目前的人工智能技术还未达到模拟人类价值、情感判断的“强人工智能”的阶段,直接进入审判过程面临着较多争议,如认为人工智能可能会让法官出现“先入为主”的判断,或使部分法官出现偷懒或消极怠工,从而影响到个案的公平等。我们暂且不论人工智能是否真的会影响到审判的实体性工作,但以当下的判断标准来讲,让一个没有人类思维、情感的工具代替法官进行裁判,这本身就难以被广泛接受。
目前,国内大部分的法律科技公司缺乏研究底层算法的能力,大都是借用国外的开源算法,其算法的可信赖机制尚需要时间验证。另外,我国的大部分法院尚处于信息化建设中,大量案卷尚未形成电子卷宗,也没有完成案件结构化工作。无论是从算法的验证,还是从输入数据的完备程度来讲,公平公正确实成为人工智能必须面对的问题。
司法治理核心困境与产生原因
1. 司法治理核心困境
人工智能技术在审判过程中的核心司法治理困境是:人工智能技术在审判过程的可解释性不足。尤其在涉及到审判的实体性工作时,人工智能往往难以对裁判结果的推理过程给出让人心悦诚服的解释。虽然可解释性的问题在很多时候并不影响技术的运用,比如我们即使不能完全解释自动倒车的算法,但并不妨碍我们使用人工智能完成自动倒车的工作。但是,当这种可解释性不足的情况出现在审判过程中时,却可能动摇裁判结果的根基。造成这种治理困境的原因很多,如算法黑箱、外部数据输入标准不明确、数据样本精度低、技术迭代等。但这些都是表象,并不能解释产生这一问题的根本原因。笔者认为,其根本原因是法律人与人工智能的底层逻辑和最终追求的差异,其中最大的差异便是对于“程序”的理解。
2. 司法治理产生原因
审判中的程序是指人民法院依照诉讼法(民事诉讼法、刑事诉讼法、行政诉讼法)和相关法律法规的规定,审理案件适用的程序,其制定初衷就是为了保障案件审理的公平公正。但并不意味着,只要遵照这一程序就必然获得实质上的公平公正。审判程序不是计算机程序,并不是简单的“案情+法条=裁判结果”的三段论推理,无论是法官本身的经验、知识背景、倾向性等个体差异,还是证据变化、遇到特殊整顿等外部条件,都会对审判结果造成影响。对应于人工智能的算法模型和外部数据输入,其在审判的实体性工作中可能将长期面临可解释性的障碍。这种在“程序”的巨大差异,使得人工智能技术与司法治理互相影响和制约,主要反映在以下几个方面:
(1)底层逻辑的差异:演绎推理与归纳推理
演绎推理(Deductive Reasoning)是由一般到特殊的推理方法,推论前提与结论之间的联系是必然的,是一种确实性推理。几乎所有接受过传统法学教育的法律人,演绎推理尤其是三段论是进行案件推演的必修课,而法官的审判过程也是基于演绎推理的论证过程。当法官研究完一个案件材料时,在心中便已经有了一个对大致案情走向和可能结果的“预判”;随着举证质证、法庭调查、法庭辩论的开展进一步梳理案情,最终不断“逼近”最终的审判结果。在这个过程中,三段论推理起到了非常重要的作用,但诸如时政环境、法官倾向性等外部变化,也会对审判结果造成影响。但总体来说,这是一个“可以推演”的过程,即我们总能有办法来说明究竟基于什么原因给出了最后的判决结果。
而归纳推理(Inductive Reasoning)是一种由个别到一般的推理,是由一定程度的关于个别事物的观点过渡到范围较大的观点,由特殊具体的事例推导出一般原理、原则的解释方法。人工智能所采用的便是归纳推理,计算机通过建立算法模型分析已知的案件信息,再结合大量外部数据,从而归纳出某种关联关系,最终得出了非常接近实际情况的结果。也就是说,人工智能很可能根本不清楚审判的直接过程,对公平公正、程序正义等价值观也完全不了解,但这并不妨碍它通过分析大量优秀法官的审判经历,再结合其他数据,通过某种算法模型的,最终得出非常接近于实际情况的判决结果。很可能这个判决结果取得了“实体正义”的结果,但在“程序正义”的角度,却缺乏足够的推理过程。
法律人与人工智能的底层逻辑巨大差异,首先便体现在二者采取的不同推演方式上。虽然,我们不能简单判定哪种方式更好,也许通过强大的算法模型和庞大的大数据分析,可以归纳出一个所谓的“完美正义”,但却始终无法让人信服。这种感受仿佛是一个来自于“上流社会”的人告诉你,这样做就是对的,你只要相信我就可以了,势必会激发人类一探究竟的好奇心。人工智能技术在审判中遇到的核心司法治理困境--缺乏可解释性,便因为这种底层逻辑的差异而产生。
(2)最终追求的不同:程序正义与梯度下降
法律最终的追求是正义,虽然正义是客观存在的,但却又像天空的云朵一样缥缈,但这并不妨碍人类对它的不懈追求。就像罗翔在《圆圈正义》中的观点,完美的圆是客观的现实存在,但是人类无论使用任何仪器都画不出完美的圆,但这并不妨碍人对完美的圆的追求。在法律人看来,正义是无价的,值得付出任何代价来获得;但在现实生活中,不计成本去追求正义显然是无法实现的,于是便有了程序正义的概念。即,通过建立严格的审判程序来逼近实体正义,即使这种方式会有漏网之鱼的出现。
在实际的审判过程中,虽然法官的追求实体正义,又不得不为各种现实因素妥协。在我们的司法伦理中,因为严格追求程序正义而出现不公正的判决结果,或是严格追求实体正义而违反审判程序,都会给法官带来巨大的压力。但这并不影响法律人对正义的追求,这也是法官自由心证的重要价值基础。
与法律人预设一个完美的方向,并不断向这个完美方向不断追求的思路不同,人工智能从一开始就不追求这种全局最优的解法,而是采取局部最优的解法。以梯度下降法(Gradient Descent)为例,这是一种用于求解函数的最大值或者最小值的常见最优化算法。梯度下降速度最快,往往会造成开头容易,但最终结果偏差较大;梯度下降速度很慢,虽然结果准确,但工程量巨大。于是,计算机选择的是某一个“最优范围”,也就是函数的收敛点附近。在这个“最优范围”,可以兼顾速度和结果,也就形成了效率最优的方案。人工智能技术的诞生是用来解决现实问题的,效率在其诞生之初便蚀刻在它的程序里。
法律人与人工智能在最终追求上的差异,其实是理想与现实的差异。在人工智能具备人类自我意识之前,可能很难体会人类这种--虽然我看不到真理实现的那天,但我愿意为之奋斗终身的情感。这种差异更多是在伦理上,即追求效率还是追求正义?而不是体现在利弊决策上。从某种程度来讲,正因为二者之间具备这样显著的差异,才让“人工智能+人”的人机协同具备了理论基础。
(3)判断依据的区别:经验、现实环境与算法的数据样本
美国著名首席大法官霍姆斯有句名言:“法律的生命力,不在于逻辑,而在于经验”。法律是人们在社会生产生活实践中所形成的、并为人们所共同遵守的那些规则、惯例和习俗的固定化和成文化。这一观点被很多法律人奉为经典,也是对他们亲身经历的总结。法院是解决纠纷的地方,审判过程也不是严格的教条主义。法官在审判的依据除了法律条文、过往案例外,还需要考虑当地的风俗习惯和民众的接受程度。裁判结果的判断依据,外在体现是案件事实和法律条文,但法官的过往经验和现实环境才是内在的判断依据。但究竟哪些经验、现实环境决定了审判的结果,也许在个案当中可以述明,但放之于整体就非常难以统计。
而人工智能无论是算法模型本身的训练数据,还是外部的输入数据,都是人为添加,有些甚至都没有考虑过往经验和现实环境,从理论上讲,这种数据样本精度不足的情况,可能始终困扰着人工智能的判断。我们尚且不知这种判断依据的差别,对于个案会造成怎样的影响。但无论是算法模型的建立,还是外部输入数据的标准,都是判断
人工智能生成物是否具有“创造力”的核心。所以,人工智能不具备人类的自我意识之前,这些关键的判断依据仍然离不开人类的选择和调试。
我国法院目前仍处于信息化建设的阶段,案件结构化的工作尚没有完成,很多数据尚未搜集归整,这也给大规模的数据输入造成了影响。人工智能面临的另一个治理难点产生了,即我们目前并没有那么多的数据为人工智能提供判断的依据,依托于现有的数据和算法模型是否足够让其做出可靠的裁判结果?
人工智能技术与审判过程融合的司法治理探析
1. 人工智能当下仍无法脱离工具的属性
我们谈论问题不能脱离当下的人工智能技术和产业的实际发展情况,即人工智能技术尚处于发展期,我们尚处于“弱人工智能”(Weak AI)阶段,处于机器模拟人的阶段;我们离“强人工智能”(Strong AI),即拥有人类的自我意识的人工智能,尚需要很长的时间来突破。在目前的技术发展阶段,人工智能依旧是基于社会学、数学、计算机科学而制作的计算机系统,和真正的人类意识相距甚远;即使这个系统的“创造”水平接近甚至超越人类,但系统本身不具备人类的自我意识,仍然是一种工具。
我国的司法实践对这一论点有案例支撑。北京互联网法院(2018)京0491民初239号判决书载明:“虽然随着科学技术的发展,计算机软件智能生成的此类‘作品’在内容、形态,甚至表达方式上日趋接近自然人,但根据现实的科技及产业发展水平,若在现行法律的权利保护体系内可以对此类软件的智力、经济投入予以充分保护,则不宜对民法主体的基本规范予以突破”。深圳南山区法院在(2019)粤0305民初14010号判决书载明:“人工智能没有自由意志、缺乏自我意识、是人类支配利用的工具,因此无论其在某些功能上多么强大,人工智能也不能作为人而成为法律主体”。
虽然,诸如南非、澳大利亚已经认可DABUS人工智能系统可以独立成为“创造者”,但并不具有广泛性的参考性。美国、英国、欧盟、日本等先进国家,对于人工智能的主体身份尚持否定态度。
既然人工智能是一种工具,那仍然需要人类使用。对审判过程而言,即使人工智能给出了大量关于裁判结果的提示信息,但最终仍需要人类法官进行取舍和判断,最后也由人类法官承担责任。当然,我们不能否认,人工智能技术可能会在客观上造成一些法官对裁判权的自我放弃,但这是案件结果审查的问题,并没有改变人工智能作为辅助工具的属性。
2. 人工智能在审判过程的应用会越来越多
既然人工智能技术存在这么多司法治理的障碍,是否我们要放弃或减缓这种技术在审判场景中的应用呢?从近些年来最高人民法院的一系列动作来看,我们不但不会减少或延缓新技术在法院中的应用,反而会加速这一进程。正如前文所提到的,目前我国法院的案件增长量实在太快了,必须通过技术手段提升案件审理的效率。虽然人工智能技术不能从根本上替代法官,也有着这样或那样的现实问题,但作为一种可以大幅提升效率的工具,人工智能确实可以极大地减少法官的工作量。
当下的人工智能技术更适应大批量、重复性的工作场景。每年涌向法院的案件绝大部分都是类似银行催收、P2P借款、商标图片侵权、音乐视频侵权的批量案件,或是案情简单的小额诉讼。而《民事诉讼法》的修改也反映出当下案件繁简分流、提升案件办理效率的大趋势。其实对于任何一个案件,都存在流程化的工作,可以先从提升这些地方的效率开始,逐步过渡到法官的实体性工作中。
作为全世界最大的单一法律体系国家,我国具备着建立试点进行论证,然后再大规模推广的有利条件,这也使得人工智能在我国的审判工作中的应用处于领先地位。在以后的审判过程中,不仅是程序性的工作,甚至是实体性的工作,如裁判文书的相当一部分内容都是由机器完成,核心部分由法官权衡裁量并审核校验。这种以审判人员为中心的“人工智能+人”的人机协同机制,将成为新的工作模式。
3. 对于人工智能的司法治理我们尚需保持耐心
对于人工智能技术的治理,这几年大多停留在呼吁、号召的层面,虽然《数据安全法》等新法律法规的出台,在一定程度上对算法侵权的行为有了规制,但从产业和技术发展的整体框架来看,目前尚未从司法治理的层面上对人工智能技术提出具体方案。主要有以下几个原因:
其一,人工智能技术尚处于发展期,在技术的发展期进行严格规制并不利于技术的推广和使用。我国的人工智能产业正处于快速发展阶段,虽然与美国同处于第一梯队,但在基础研发、开源体系建设、关键设备制造等关键领域与美国尚有较大差距;反而在应用层的创新,是我们目前最大的优势所在。试错成本是任何技术攻关都不可避免的,而法律不应当成为技术发展的障碍,这也是目前在人工智能治理中的整体态度。
其二,目前的案例、数据太少,还需要一段时间检验技术对审判活动的影响。人工智能技术本身属于实践性极强的应用技术,检验标准就是实际应用的结果反馈。首先不论法律专家是否能够从技术层面提出反对意见,但基于现实的应用反馈结果来看,目前效率的提升是显而易见的;至于是否对法官的审判活动造成影响,目前尚没有充分的证据。同时,由于技术的介入反而使得法官的自由裁量权限缩,这也在一定程度上遏制了司法腐败的出现。
其三,人工智能技术的迭代,也会让现在的一些问题消失。近些年来,无论算法、芯片、存储、网络都有了很大的提高,人工智能技术尚处于一个快速的发展过程。过去的大数据样本学习,已经开始发展到小数据样本甚至零样本,在地震模拟、疫情防控等领域开展了应用。在这种情况下,也应当给与技术的发展留一点时间。
4. 探索建立综合的项目论证、评估和考核机制
我们对于人工智能技术在审判过程的创新应用,应当给与一定宽容度和试错机会,尤其是对于那些前沿技术的创新应用。但人工智能与法律是两个完全不同的专业领域,绝大部分的法律人并不具备技术背景,对于人工智能技术和产业的发展方向也并不了解。有时候法院的初衷是好的,但因为缺乏对相关知识的了解,导致石沉大海的投资屡见不鲜。甚至有些项目早已被确认没有实际价值,某些技术已经十分落后,一些地方法院仍斥巨资上马。这些问题的产生,都是缺乏科学的项目论证、评估和考核机制。
对于人工智能技术在审判过程的应用,应当建立一套论证、评估和考核机制,应当引入跨行业专家进行综合研判。既然人工智能的核心任务是提升效率,究竟项目投入可以产生多少效率提升,这里应该有一个科学的统计。同时,技术本身的先进性、对审判可能造成的影响等因素也应当纳入评估的范畴。兼顾效率与公平,兼顾可靠与安全,应当是技术融入任何司法应用场景都应当遵循的铁律。笔者并不认同唯技术论的论调,尤其是在人工智能技术的奇点还没有来临的当下,我们需要理性看待技术的能力边界。
5. 建立可信人工智能机制,人工智能的开发者应当提供充分解释
人工智能技术同普通的IT技术不同,有些技术细节属于“黑箱子”,缺乏可解释性,有些技术涉及商业秘密不便于普遍性的公开,但纵观技术和行业的发展趋势,解决问题的核心还是建立可信赖的人工智能(Trustworth Artifical Tntelligence)机制。以深圳市南山区人民法院(2019)粤0305民初14010号案的判决书为例,判决书中恰恰缺乏了对Dreamwriter人工智能系统算法、数据标准以及人类的参与程度的解释,这些关键环节恰恰是原告没有清楚阐述的,在判决书中也是寥寥几笔带过,这恰恰是未来的司法裁判中需要企业特别补充的重要部分。
参考区块链技术从乱到治的过程,公安部建立了“可信区块链”的白名单机制,从政府监管和行业自治两个维度来规范技术的发展。人工智能技术也会经历一个类似的进程,即从难以解释到被迫解释,最后到成为受到保护的前置性条件。相信在不远的未来,人工智能企业在发布产品前,向政府组织的专门委员会提交“可信性报告”,将成为类似于工商备案一样的常规动作,也是企业避免自身权益受到侵害的一种必要手段。
对于法律从业者而言,人工智能技术太过于复杂、艰涩,所以不可能要求法官、检察官、律师等法律从业者对技术问题进行阐述;无论是基于举证责任的考量,还是基于现实情况的角度,均需要人工智能的开发者对人工智能系统提供充分的解释,这也是发展“可信人工智能”对于企业的要求。
参考文献:
[1]人工智能时代的制度安排与法律规制[J],吴汉东,中南财经政法大学,中国社会科学文摘2018年1期
[2]人工智能发展中的法律问题研究[J],刘源源,钦州学院,职工法律天地2018年20期
[3]司法裁判人工智能化的可能性及问题[J],吴习彧,浙江工业大学,浙江社会科学2017年4期
[4]可信AI的前世今生[J],陶大程,京东集团探索研究院,智能系统学报2021年4期
[5]关于法律人工智能在中国运用前景的若干思考[J],左卫民,四川大学,清华法学2018年2期
[6]人工智能与法律的未来[J],郑戈,上海交通大学凯原法学院,探索与争鸣 2017年10期
[7]AI法官的时代会到来吗—基于中外司法人工智能的对比与展望[J],左卫民,四川大学,政法论坛2021年5期
[8]司法人工智能融入司法改革的难题与路径[J],魏斌,浙江大学,现代法学2021年3期
[9]人工智能介入司法领域的价值与定位[J],潘庸鲁,上海市高级人民法院,探索与争鸣,2017年10期
[10]智慧司法的难题及其破解[J],马靖云,南京大学,华东政法大学学报2019年4期
作者简介
彭嘉昊,上海人工智能研究院数字化治理中心主任。兼任西南政法大学人工智能法学院硕士研究生实务导师、深圳市人工智能产业协会副秘书长、中华全国律师协会信息网络与高新技术法律专业委员会研究员。具备“法律+工程+计算机”复合背景,参与了我国第一部人工智能立法起草工作,现为多地政府的大数据、网信部门法律专家。

