2017年4月20日,最高人民法院发布了《关于加快建设智慧法院的意见》,致力于打造网络化、阳光化、智能化三位一体的智慧法院。智慧法院建设要求人工智能与司法紧密结合。随着改革的推进,人工智能介入司法的程度已经从内部司法行政管理体系扩展到外部审判活动[1],学者们开始关注人工智能给司法原则、证据规则和司法认知带来的冲击。保守派学者认为人工智能不会改变司法的本质属性,改革派学者认为人工智能会重构传统的法律关系、法律行为和法律方法,甚至带来一场法律革命[2-3]。因此,审慎观察和分析人工智能语境下“司法改革”的动向,并积极探索解决对策,对审判活动现代化建设显得尤为重要。、“人工智能+”背景下的法院智能化进程马长山教授从实然法的角度构建了法律革命的宏大框架,认为未来“人工智能+法律”的发展会重塑司法认知、司法伦理和司法价值等基本法律理念[2]。但到目前为止,我国智慧法院改革仍处于初级发展阶段,主要表现为以效率价值主导智慧法院发展的特点,还未进入重塑基本法律理念阶段。
一、人工智能介入司法
(一)效率价值主导智慧法院的发展
各地法院遵循效率逻辑,纷纷推出法官智能辅助办案系统,简化办案流程、缩短审判时间,处处彰显着对效率价值的偏爱。与此同时,地方试点开始的智能化改革也逐渐向全国推广。2016年的第三届世界互联网大会,六国最高院大法官在司法信息化、司法公开、诉讼服务等方面达成了六大共识。2017年的《新一代人工智能发展规划》也将“提升审判体系和审判能力智能化”作为人工智能发展的目标之一,无论是最高院还是国务院都显示出建设智能司法系统的决心。
司法实践处处彰显出对效率的追求,因为司法效率可以促进司法公正的实现。解决纠纷本质是法律关系、法律状态的确定过程,所以准确高效地解决纠纷实质上有助于社会公平的实现[4]。司法智能化符合效率价值的目标,让法官摆脱了繁杂机械化的司法工作,让诉讼当事人走出复杂低效的司法程序。伴随效率的提高,人们开始质疑人工智能只是一味地追求效率,可能忽视了司法公正。司法公正是司法价值的核心命题,但智慧法院呈现的特点是司法公正亦步亦趋,司法效率呈现质的飞跃。从严格意义上说,司法是一个以司法公正为第一价值的社会活动,目前却反映出来一种以效率效益为第一要义的商业逻辑,两者之间存在价值冲突,可能影响司法的良性循环。司法的良性循环表现为司法公正和司法效率相辅相成,人工智能却难以在两者之间达到平衡。人工智能专家在设计算法时力求精确化的表达,公正却如普罗米修斯的脸,“公正”的裁量标准无法精确化,难以统一。换而言之,以算法为核心的人工智能不但无法理解人类社会对司法公正的追求,而且无法突破法律模糊化表达的困境,所以最后也可能陷入一个传统的法律困境--公正效率之争。为了避免陷入法律困境,无论是法院还是研发者都更愿意选择以效率为首要价值指导司法智能化建设。
(二)智慧法院处于初级司法智能化阶段
人工智能分为“弱人工智能”“强人工智能”“超人工智能”[5]。智慧法院的重点在于利用人工智能技术实现法院再造,司法智能化水平也与人工智能发展呈现出对应关系。目前人工智能技术还处在“弱人工智能阶段”,部分领域逐步迈进“强人工智能阶段”,法院相应地处于初级司法智能化阶段。
伴随弱人工智能的发展,上海法院推出了具有35个子系统的智能辅助办案系统[6]。该系统利用算法提供5种服务:自动生成电子卷宗、自动关联与当事人相关的案件、智能推送辅助信息、自动生成与辅助制作各类文书和智能分析裁量标准。这个系统主要为辅助性司法活动提供帮助,简化司法审判的程序性活动,没有为司法裁判的核心活动提供新分析工具。新分析工具的应用主要集中在司法推理模式的重构方面[7],司法推理包括对类似案件的分析和对法律规则的解释等方面,并非是一个单调的线性推理过程,必须建立在类比演绎等深度学习的人工智能之上。新分析工具的应用需要与强人工智能相结合,弱人工智能阶段的司法辅助系统无法处理法律与道德伦理的关系,也不符合以“社会效果”为导向的法律裁判逻辑,相应地法院改革也无法突破弱人工智能的限制。弱人工智能具备处理简单特定任务的优势,提升了法院内部司法系统的效率,却没有给智能司法外部系统的构建带来实质性的成效。司法过程是一个法官居中裁判、当事人相互博弈的三方构造,除涉及法院内部司法行政系统之外,还涉及当事人之间、当事人和法院之间的法律互动过程。这种“法律互动过程”也可以称之为“智能司法的外部系统”。外部系统的改造起始于“微信审判”和“QQ审判”[8],2007年,福建省沙县法院利用QQ审理了一起跨国离婚案件,这起案件的审判改变了传统法庭审判的地点,将物理空间置换成了网络虚拟空间,节约了法院和当事人的时间成本,将一天的工作时长缩短为半个小时。外部系统利用互联网技术改变了法庭审判的沟通交往媒介,利用了弱人工智能的语音识别、图像识别传送技术,却没有利用人工智能的分析、推理等与深度学习相关的核心技术,只是涉及到了人工智能的冰山一角。
(三)智能司法系统的研发主要依靠公私合作
根据以往的研发经验,仅依托于最高人民法院自身的技术无法满足提升司法效率的需求。以最高院裁判文书网为例,它的算法设计本身就存在天然缺陷,关键词设计不合理,模糊检索功能远不如北大法宝、无讼、openlaw等网站。相较之下,私人企业的技术优势得以凸显,迄今为止公私合作研发智能司法系统逐渐成为摆脱技术桎梏的最佳途径。
全球的法律科技上市公司呈现出指数增长趋势,从2009年到2016年增长了1149家[9]。其中国际律所Dentons研发的机器人律师ROSS于201年投入使用。无讼研发的机器人“法小淘”也于2017年投入使用。这证明市场导向的商业活动已经催生出一批批的人工智能法律产品。企业掌握着先进的人工智能技术,并与法院合作共同研发人工智能法律产品。如上海市浦东新区政协委员周兰萍主张利用“互联网+PPP”的优势打造智慧法院。上海高院与科大讯飞公司合作,历时5个月成功研制了“206”系统[10]。浙江省高级人民法院与阿里巴巴集团签署战略合作框架协议,聚焦阿里巴巴旗下的淘宝、阿里云和蚂蚁金服在云计算、大数据和用户方面的资源优势,帮助浙江法院构建司法领域的大数据服务体系[11]。各地方纷纷积极地与私人企业合作,共同推动智慧法院的改革。
二、人工智能介入司法的隐忧
(一)人工智能可能影响法官的自由裁量权
对人工智能介入司法,学者们持两种观点:一种观点认为人工智能甚至可以取代法官、律师成为司法活动的主体[12],另一种观点认为人工智能在司法裁判过程中只是占据辅助地位,无法取代法官的主体地位[13-14]。
持前者观点的学者对人工智能有着盲目的乐观,甚至有技术万能主义思想,认为人工智能的工具性价值可以弥合司法裁判模糊性和不确定性的缺陷,使自由裁量朝着统一性和可预见性方向发展。事实上智慧法院处于初级司法智能化阶段,人工智能弥合司法缺陷的能力受到约束。不同于机械地参照适用法律,一个理性的裁判者形成自由心证的过程极为复杂,需要考虑法律解释、利益衡量、道德伦理和价值判断等方面,有时甚至还会受到舆论、权力和社会效果等因素的限制。法律专家系统设立的算法规则无法将主观因素量化为代码,所以人工智能裁量结果也往往有失偏颇。一个法官消极不作为,机械性地以人工智能裁量结果作为一个法律裁判的决定性因素,意味着法官对技术的盲目崇拜,无法正确认识到技术的局限性。“法官的自由裁量”变成人工智能技术的附属品,变成了“算法的自由裁量”。
持后者观点的学者坚持法官的主体地位,认为人工智能介入司法的优势在于使法官的自由裁量趋于合理化,争取同案同判的效果,从而有助于实现司法公正,提高司法公信力,防止司法腐败。利用人工智能控制法官的自由裁量权是未来智慧法院改革的重点。法官的自由裁量分为“强自由裁量”和“弱自由裁量”[15],强自由裁量关注个案的特殊性,法官需要灵活运用法律原则,例如“许霆案”中法官利用法律原则突破了法律规则的限制。个案的特殊性与人工智能司法的普遍适用性相违背,人工智能在合理化约束强自由裁量权方面显得捉襟见肘。弱自由裁量要求法官在相对确定的司法裁量界限内作出选择,关注类似案件的普遍性,算法利用提公因式的方式,将相同的考量要素代码化,形式上更符合算法逻辑,但也可能增加自由裁量的不确定性。以量刑系统为例,即使是简单的几个考量要素也可以任意组合成上百种裁量结果,对合理化约束法官的自由裁量权并无意义,反而增加法官自由裁量的难度。
居于辅助地位的人工智能还可能抑制法官发挥主观能动性,妨碍法官审理新型权利纠纷案件。新型权利是经济发展和社会交往的产物,在审理新型权利纠纷案件中,法官更需要发挥主观能动性去解释法律,有时甚至需要发挥“法官造法”的功能。囿于弱人工智能无法深度学习理解法律语言,法律专家系统就无法以现有的数据库为基础作出合理预判,如果法官由于司法惰性而放弃行使自由裁量权,采纳旧数据库作出的预判或者建议,人工智能法律专家系统则会促使法官作出不公正、不合理的裁判。
(二)公私合作研发可能降低司法公信力
腾讯研究院发布的《全球人工智能人才白皮书》显示,全球AI领域人才约10万,而市场需求在百万量级[16]。人工智能与法律相结合的高端复合型人才属于稀缺资源,公私合作研发是这种情势之下的必然选择,而商业的逐利性则会诱使私人企业在设计算法时作出符合自身价值取向的判断,或是利用数据存储和管理优势误导法官的裁判。
技术研发商在利用算法拆解司法裁判活动的过程中可能存在误判。司法辅助系统的效益取决于技术研发商对司法活动的理解和算法对自然语言的处理能力。首先,大多数的技术研发商是人工智能方面的专家,无法充分理解司法活动。技术研发商将法律规则转化为算法的过程是对法律规则的重新解构和建构,转化为算法的法律规则必须遵循算法逻辑和法律逻辑,算法设计者必须将两种逻辑融合一体。其次,符号主义算法和联结主义算法模拟人处理自然语言的能力极度有限,以苹果siri为代表的语音识别系统尚且无法高度精确化地处理自然语言,其他人工智能系统在处理生僻难懂的法律专业术语方面更是困难重重。因此,所设计的智能司法辅助系统往往是差之毫厘,失之千里。
除此之外,技术研发商同时也是数据服务商,数据服务商是否会利用数据优势不正当影响司法的问题还须进一步思考。例如阿里巴巴集团和顺丰集团的数据权之争,传统的反不正当竞争法和反垄断法完全没有适用余地,但是两家公司的数据权之争又实质上侵害了消费者权利,如果提起消费者公益诉讼又无法将消费者的实质损害进行量化,从而形成有利证据。在无人提起公益诉讼的情况下,法院无法将其纳入司法管辖的范畴。在他人提起民事诉讼的情况下,法院也可能作出驳回起诉的裁定,消费者的隐私权无法得到司法保障[17],司法的公信力也会降低。
(三)算法歧视影响司法正义
每个法官的自由心证实质上是一种“算法”,表现为法律解释技术。法官在个案中依赖法律解释技术,所以法律转化为算法的过程存在人的主观选择,存在“算法歧视”。
大数据、互联网、云计算高度发展的时代,算法被特定化,算法由研发者设计,那么算法本身就带有技术开发者的主观意识判断,算法绝对客观中立的论断就值得怀疑。算法决策的结果本来就可能带有固有的歧视。Northpointe公司开发一款名为“COMPAS”的犯罪风险评估系统,用以辅助法官对犯罪嫌疑人进行再犯风险评估,但是最新的研究表明该系统本身就存在种族歧视[18-21]。该系统的最终目的是为了更好地预测犯罪人的再犯可能性、社会危害性及人的主观恶性,以避免刑事裁判受到法官个人主观偏好的影响。实践却背离了初衷,该系统在类似案件中评估黑人和白人的再犯风险时,黑人的再犯风险评估结果远远高于白人。这是由于算法在将法律规则转化为代码的过程中,同样也承载着人类文化中固有的偏见。算法的运行是一个自发、无意识、不完全可控的过程,算法在“输入与输出”的交互式运算过程中也会习得人类的劣习。以微软开发聊天机器人Tay为例,它在投入使用不久之后,产生了反犹太人、种族歧视、性别歧视等不良思想。人工智能介入司法同样以“输入与输出”的运算模式为主,也容易导致法偏见与不公。
更进一步,算法具有专业性和不透明性的特点,算法歧视所带来的司法不公难以矫正。当犯罪嫌疑人将存在偏见的再犯风险评估结果诉诸法院时,Northpointe公司也会以算法是商业秘密作为抗辩理由,法官的审查可能受到限制[18]。而且大多数法官不具备审查算法客观性的能力,沿袭以往的经验积累,更容易认为算法是一种客观中立的科学表达或者是数字表现形式,否定算法决策存在法律意义上的价值判断,算法的正当性、客观性也不会被审查。随着法官一次次参照适用算法决策结果,算法歧视更难以被发现,长此以往算法会更加偏离司法公正的方向。
三、人工智能介入司法的展望
(一)保障人工智能背景下法官的自由裁量权
无论法官审判的主导地位是否能够被人工智能取代,只要法官由于司法惰性选择适用人工智能的司法裁量结果,人工智能都已经对法官的自由心证造成了实质性干扰。在这个语境之下,保障法官自由裁量权才变得有意义。
首先,法律应当将人工智能裁量结果作为“参考”依据。“参考”暗示在具体案件中法官如果采纳人工智能的裁量结果作为裁判依据之一,必须论证该裁量结果的正当性。法官必须承担相应的说理义务,理由一旦遭到反驳或者质疑,法官也要承担相应的法律责任。从法律形式主义出发,人工智能裁量结论可能代表着极端法律形式主义[17],法官可能会变成“法律的自动售货机”。法官机械化地适用法律,可以规避创造性适用法律过程中所产生的不必要的说理责任。现代法官的评价管理制度,将上访率和上诉率作为考核法官的重要指标,法官创造性地适用法律要比机械性地司法承担更多不可预测的上访风险[22]。法官为了个人的职业前途会选择相对安全保守的裁判方式,规避风险。阐述说理义务的规定就是为了防止法官机械地适用人工智能裁量结果。
其次,防止上下级法院监督的异化,让法院的独立审判流于形式。人工智能介入司法可以提高司法行政管理的效率,便于上下级法院的监督[6]。当地方司法行政管理系统接入全国系统时,上级法院法官点击鼠标即可完成电子案卷、庭审视频的传送,对下级法院的司法监督变得轻而易举。上级法院掌握了司法监督的绝对主动权,远程监督可能使庭审变成法官的个人表演秀,使法官庭审流于形式。为防止形式化审判,上级法院的监督范围和监督权限不能逾越法院独立审判原则的限制。
(二)发挥公私合作研发的优势,防止法院产生技术依赖
公私合作可能会降低司法公信力,原因在于法院的权威性源自公民授权、宪法和法律的拟制同意。当人工智能司法裁量结果的正当性存在困境时,人工智能是否可以视为是公民拟制同意的结果呢?公私合作研发的法律专家系统中的算法可能既包括了法院的意志又包括技术研发商的个人意志。个人意志如果超过了拟制同意的范围,那么人工智能司法裁量的正当性则需要法律原则来弥补。法律原则可以通过内部证成解决人工智能裁量正当性不足的问题,当徒法不足以自行之时,则需要通过外部证成的方式加以弥补。同时,法院应该提高自身的研发能力,掌握数据的主控权。技术外包可能对司法公信力产生威胁,现行立法并未在算法设立与数据保全之间作明确划分,我国私人公司在算法设计和数据储存方面都兼具优势,法院掌握数据主动权的方式就是增强法院的数据收集、整理和存储方面的能力,摆脱对私人企业数据保密技术的过度依赖。然而,互联网的传播速度和广度增加了数据的泄密风险,传播的次数与泄密风险成正比关系,法院还应减少原始数据的传播次数,防止数据泄露。法院与技术开发商签订合同时,须增加数据安全保障义务条款,建立数据等级保护体系。
(三)完善技术公平规则和算法司法审查原则
算法歧视分为两种,一种是算法设计者主观意识导致的歧视,一种为算法后天习得导致的歧视。这两种算法歧视的规避路径包括正当程序、算法司法审查和第三方评估。
第一,法律代码化后的算法理应遵守正当程序原则。正当程序原则的模糊性和包容性决定正当程序无法精准化、具体化和量化。人工智能评估系统无法衡量一个智能化量刑系统的算法是否遵守正当程序原则。智能化的量刑系统建立在个人裁决和规制制定之上,而法官更相信算法完美无漏洞,这会导致智能量刑系统、司法裁量系统侵害正当程序原则[23]。因此,需要设定技术规则增强算法的透明性、可问责性和明确性,避免算法侵蚀司法公正。
第二,进一步明确算法的司法审查范围。算法歧视分为“显性”和“隐性”,遵循阶段性审查的原则。第一步为初步审查,审查是否存在显性的算法歧视,第二步为实质性的算法司法审查。因为算法审查成本可能比算法设计成本更加高昂[23],为了避免司法资源的浪费,分阶段的算法司法审查可能更容易被法院采纳。在EricL.Loomis案中,被告以COMPAS系统存在歧视为由提起上诉[24],由于算法是商业秘密的重要组成部分,法院无法做到彻底的、完全的、实质性的司法审查,只有加利福尼亚管教和康复局提供证据证明COMPAS系统存在显性算法歧视,才能进行实质性的司法审查。第三,建立算法司法审查第三方评估制度。目前浙江省瑞安市法院引进了第三方评估机构,由第三方电子证据保全公司保存和校验庭审录音录像的完整性[25]。算法司法审查有两种路径,一种是由第三方评估机构承担实质性审查任务;另一种是由法院承担实质性司法审查任务。前者更加适合缺乏技术人才的法院,但受到数据安全、司法不作为等质疑;后者更加适合拥有技术人才的法院,但存在增加司法成本等问题。考虑到目前法院缺乏技术人才的现实情况,大多数法院会选择第一种方案。本文原载《湖南学院学报》2019年2期