本站首页 关于我们 法律图书馆与法律信息研究会 法律信息研究 中外法律图书馆 法学文献与检索 政府信息公开 法律图书馆导航 法律法学网导航
法律信息资源
法律信息服务
数字信息检索
数字技术发展
专业网站建设
澳门法律信息
  当前位置:首页 > 法律信息研究 > 法律信息资源
法律信息资源
暂无下载资料

 人工智能裁判的问题归纳与前瞻
            罗维鹏 点击量:2143
西南财经大学法学院
【摘要】
司法人工智能有两条发展路径: 初级司法人工智能和高级司法人工智能。初级的司法人工智能属于一种司法辅助工具,这是目前学界和实务对司法人工智能的一般定位。高级司法人工智能,即人工智能裁判。人工智能裁判是否可能构成司法人工智能的终极问题,有必要从三个方面综合分析。本体论在于回答何谓人工智能裁判,认识论在于回答人工智能裁判在技术上是否可能,价值论在于回答如果技术问题解决了,人工智能裁判是否应当。人工智能裁判能否实现在根本上取决于价值论是否允许。当然,也不宜将人工智能裁判在现阶段的困难性等同于最终的不可能性。
【关键字】
人工智能 司法裁判 本体论 认识论 价值论
    

  2017 年,围绕 “新时代如何推进司法的智慧化或者智能化”,法学界一时掀起 “人工智能”热。所谓的人工智能,是指研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门交叉学科。从学界和实务关注的主题来看,法律人对人工智能的司法运用持有一种即好奇又谨慎的态度。好奇,因为人工智能并不是一个传统的法律范畴,将司法与人工智能结合对法学研究者而言属于新鲜事物,研究者们对这方面的研究充满了期待; 而且如果能将人工智能与司法结合,将是对司法活动的一次重大变革,对司法效率和司法公正都有积极影响。谨慎,则因为人工智能对司法活动又是一种挑战,可能带来前所未见的新兴法律问题,或者担心会像一些科幻电影中的场景那样,司法活动将不再由人类主导,一切法律事务均可交由机器人来完成。

  因此,在人类正在跨步进入智能社会时代,未来人工智能技术也将被广泛应用于司法领域之际,在司法人工智能〔1〕即将来临之际,我们不禁要问: 人工智能会给司法带来什么影响? 简言之,人工智能给司法带来的最大影响将是由计算机代替法官来审判案件,即人工智能裁判。关于人工智能裁判,本文将从本体论、认识论和价值论三个层面进行分析,进而回答与其相关的 “是什么”、“是否可能”、“是否应当”的问题,以期加深学界和实务对司法人工智能的认识。

  一、司法人工智能问题的谱系

  “人工智能+ 司法”有着支撑其运行的社会背景。这个社会背景不仅是培育人工智能,也是培育司法人工智能的土壤。强大的计算机技术和大数据技术使机器人学习的范围无限扩大,工业设计的改良极大地扩展了机器人工作的时空环境,以及一些司法活动的现实需要,使得人工智能技术与司法的结合不断紧密。当前在司法的不同环节,引入人工智能的探讨与尝试已经开始。

  (一) 司法人工智能的初级与高级

  人工智能在司法领域将如何发展? 这是法律人关心的核心问题。对此,我们可以综合规范和技术两个层面先作一预判。规范层面指最高人民法院近几年就 “智慧法院”建设所通过和出台的相关政策性文件,它们为司法人工智能搭建了基本框架; 技术层面指智慧法院建设中需要的具体的科学技术支持,即围绕智能计算机系统的软、硬件技术。科学技术支持决定司法人工智能的实现程度,但规范层面的指引能够决定未来我国司法人工智能的发展方向和预期效果。

  2017 年,国务院发布 《新一代人工智能发展规划》,描述了我国政府关于人工智能发展的战略态势、总体要求、重点任务、资源配置、保障措施和组织实施六个方面。该文件明确将 “智慧法庭建设”作为我国人工智能发展规划的重点任务之一,即 “建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化。”相应的,最高人民法院在 2017 年 4 月 20 日印发 《最高人民法院关于加快建设智慧法院的意见》,在 9 月 11 日又审议并原则通过 《最高人民法院关于贯彻 〈关于实施网络内容建设工程的意见〉的落实方案》 《智慧法院建设评价指标体系 (2017 年版)》《人民法院信息化标准制定工作管理办法》及 10 项人民法院信息化标准。〔2〕以上文件均明确指出要推进司法大数据的开发和运用,提升司法的智能水平。

  同年 11 月,腾讯研究团队出版的 《人工智能---国家人工智能战略行动抓手》一书预测了人工智能在法律行业中运用的十大趋势,包括: 智能化、自动化的法律检索将深刻影响法律人进行法律研究 (检索) 的方式; 人工智能持续推动法律文件自动化; 在线法律服务、机器人法律服务等替代性商业模式不断涌现,使得法律服务的提供日益标准化、商品化、自动化、民主化; 基于人工智能和大数据的案件预测将深刻影响当事人的诉讼行为和法律纠纷的解决; 在线法院以及人工智能法律援助将促进司法可得性,帮助消除司法鸿沟; 人工智能和机器人将成为法律系统的主要进入点; 律师市场评价将使法律行业更加透明; 法律人工智能职业将作为法律行业的新兴职业而不断涌现; 法律教育与人工智能等前沿信息科学技术将日益密切结合起来; 计算机法律以及算法裁判,或将成为法律的终极形态。〔3〕此外,牛津大学的理查德·萨斯坎德教授认为在人工智能的背景之下,法律领域至少存在 13 种颠覆性的新技术,包括: 自动文件组装、无间断互联、电子法律集市、电子学习、在线法律指导、法律开源、封闭的法律社区、工作流程和项目管理、嵌入型法律知识、在线纠纷解决、智能法律检索、大数据和基于人工智能的问题解决。〔4〕可见,在中外研究者眼中司法人工智能存在着明显的智能分区,即从初级到中级再到高级,司法人工智能是一个逐步发展和完善的过程,不同智能阶段,人类交由计算机处理的事情有很大的不同。

  以上种种可进一步分为三个层次,第一层次是理论和技术都已成熟,这方面的司法人工智能已经实现,例如对各种证据的印刷体文字、部分手写体文字、签名、手印、签章、表格、图片等智能识别、定位和信息提取,对单一证据实现了自动校验; 特别是法院的自动化办公系统。第二层次是理论上已经成熟但当前技术水平尚未达到理论预设的标准,例如证据标准指引、单一证据校验、逮捕条件审查、社会危险性评估、证据链和全案证据审查判断、非法言词证据排除等。以上两个方面在 “上海刑事案件智能辅助办案系统 (206 系统)”中有明显的体现。第三层次是理论和技术都未成熟,主要指 “计算机裁判” 或者 “机器人判案”。可以说,虽然 “206 系统” 的定位是 “辅助系统”,但从人工智能的全球视野和发展趋势来看,人工智能在这方面最终的研发目标应当是一种 “自动系统”。

  概括起来,司法人工智能将有两条发展路径: 初级司法人工智能和高级司法人工智能。实际上,为现阶段学界热议和司法实践研发的司法人工智能都在初级司法人工智能层面。

  初级司法人工智能,是指基于自然语言处理、深度学习的计算机语义检索和法律问答,帮助司法人员进行法律检索或者关键信息检索。初级的司法人工智能属于一种司法辅助工具。“人工智能法律系统强大的记忆和检索功能,可以弥补人类智能的某些局限性,帮助律师和法官从事相对简单的法律检索工作,从而极大地解放律师和法官的脑力劳动,使其能够集中精力从事更加复杂的法律推理活动。”〔5 〕例如,基于 IBM 和 Wat- sonx 系统研发的机器人律师 BOSS 和商标检索平台 TrademarkNow。初级司法人工智能对法院的意义在于实现案件处理的自动化和案件审理的智能化。就前者而言,即提高法院建设的信息化水平,例如吉林省高级法院探索建立的 “电子法院”,尝试网上立案、网上阅卷、网上审理、网上执行、网上公开等,以及浙江省高级法院建立的 “浙江法院电子商务网上法庭”。实质上,在这方面目前出现的一些 “智慧法院”,只是法院利用互联网和计算机信息技术对自身工作模式信息化水平的提升。司法人工智能在这部分中的作用是升级法院对案件的 “处理”能力。就后者而言,人工智能对司法的影响更大,人工智能法律系统初步具备了分析案件的能力。例如,基于专家经验、模型算法和海量数据建立的 “206 系统”,截止 2017 年 6 月底共录入案件 60 件,录入证据 19316 份,提供证据指引 2622 次,发现证据瑕疵点 48 个,提供知识索引查询 348 次,总点击量达 5. 6 万次。〔6〕在这方面,初级人工智能显示出一定的对案件的 “审理”能力。

  高级司法人工智能,是指计算机在自然语言理解和常识推论之上,通过证据认定案件事实,并作出最终裁判的全新审判模式。从计算机对案件的 “处理”转向 “审理”应当是高级司法人工智能化的真正表现,即 “人工智能裁判”。在高级司法人工智能语境下,计算机能够读懂、听懂当事人用自然语言表达的法律问题,能够对其中的问题进行归类和分析,进而得出裁判结论。例如,有人大胆设想使用一列 n 维向量描述各种事件,将「事件 txt」导入「法律 exe」,从而产生「判决exe」。也就是将整个裁判过程转换成代码运算,从而使判决彻底脱离人的主观判断。现实中,有的研究者则尝试 “大数据定罪”,各找有关盗窃罪和诈骗罪的两万个案件进行机器学习,截取从关键字 “经审理查明”到关键字 “本院认为”之间的文本交给机器,通过分词的技术进行学习。机器在学习了这些样本案件之后,对测试案件 (1000 个) 作出的判断结果和人工的结果基本是一样的,准确率分别达到 98. 4% 和 97. 6% 。〔7〕

  本文认为,比较司法人工智能的两条发展路径,高级司法人工智能 (人工智能裁判) 最具有长远的研究价值。首先,高级司法人工智能蕴含初级司法人工智能; 其次,一旦高级司法人工智能得以实现,它将打破人类百年以来构建起的司法理论体系和司法规律。所以我们必须提早对它的性质及其是否可能作一预判,后文都将探讨高级司法人工智能的相关问题。

  (二) 人工智能裁判及其关联问题

  人工智能属于研究认知的学科,“人工智能在 AI 学科的基本思想和内容是研究人类智能活动规律,研究模拟人类某些智能行为的基本理论、方法和技术,构造具有一定智能的人工系统,让计算机去完成以往需要人的智力才能胜任的工作。”〔8 〕其中涉及五个知识单元: 问题求解、知识与推理、学习与发现、感知与理解、系统与建造。〔9 〕具体而言,包括图搜索、优化搜索、机器学习、知识发现、数据挖掘、模式识别、自然语言理解、机器视觉、专家系统、Agent 系统和智能机器人等知识和技术。人工智能裁判是以上综合的成果。

  第一,关于人工智能裁判的原理问题。人工智能裁判反映了司法人工智能的未来方向,但目前还属于一个新兴的研究领域,就像早期克隆技术在法学领域的讨论那样,我们应当首先解决这样一个问题: 人工智能裁判是什么? 或者说,人工智能裁判与法官裁判有何不同? 人工智能的目标是对人类级的智能及人类行为的理解。〔10〕因此,关于人工智能的基础问题和终极问题即 “人工智能 (机器人) 能够像人一样的思维吗?”有的研究者指出,研究人工智能是要解决一些比较具体的智能模拟方面的问题,包括意向性问题、概念框架问题、机器人行为中的语境问题和日常化认识问题。〔11〕还有的研究者从人工智能的基本假定入手,指出研究人工智能需要明确的几个问题: 知识和概念化是否是人工智能的核心? 认知能力及其预设的知识能否与其机体分开来研究? 认知的知识态或信息态的轨迹是否可以用类自然语言来描述? 学习能否与认知相分离来研究? 所有的认知是否有统一的结构?〔12〕

  以上问题也是摆在司法人工智能面前的现实问题。首先,人工智能裁判是一种什么样的裁判? 其次,人工智能裁判运行的内在机理是什么? 再次,就人工智能裁判与人类智能裁判 (法官裁判) 的关系而言,计算机能够像法官一样思维并作出裁判吗? 如果能,意味着司法裁判能够由机器人来完成吗? 如果不能,又该如何看待当前已经研发出来的某些具有高准确性的 “大数据定罪程序”? 以上问题的答案决定着司法人工智能的广度和深度,属于人工智能司法运用必须解决的前提性问题。

  第二,关于人工智能裁判的技术问题。 “计算机是否能像法官一样思维并作出裁判?”该问题除涉及以上一些原理问题之外,还关系到很多科学技术上的问题。技术问题是指在实现人工智能裁判所需要进行的观察、实验、检测等科学事业中有待解决的问题,例如机器学习、计算机视觉、自然语言处理、知识发现、数据挖掘以及材料技术、通信技术,等等。这些反映出人工智能裁判带有的经验性和实践性。

  司法人工智能的学科性质决定司法人工智能不是一项纯粹的理论研究,必须考虑到人类所掌握的科学技术能否满足某些理论预设的条件。此外,人工智能裁判不只是在做思想实验,还应当投入司法实践中去检验和验证。现实情况是,由于我们当前的技术条件有限,人工智能裁判在现实与理想之间还存在很大差距。其主要原因,如关键技术、设备、材料等的研发耗资、耗时巨大; 计算机运算速度有限,无法实现结论的即时性;大数据的采集困难,无法做到案件的全本采集; 对大数据样本进行人工标记十分困难,没有现成统一的标准,等等。诸如此类的技术障碍一时阻碍了人工智能裁判的进程,但是如果这些问题得到解决,案件就可以交由计算机裁判吗?

  第三,关于人工智能裁判的价值问题。人工智能裁判的价值问题旨在说明人工智能裁判在法律上和法理上的正当性。我国法学研究者在这方面的讨论很少,已有研究成果集中于从实体的角度探讨人工智能对个人行为和市场行为带来的风险和应对。例如,人工智能对法律职业的冲击;〔13〕机器人法律资格的民事主体问题、人工智能生成作品的著作权问题、智能系统致人损害的侵权法问题、人类隐私保护的人格权问题、智能驾驶系统的交通法问题和机器 “工人群体”的劳动法问题;〔14〕人工智能产品的行为性质和刑事责任的认定。〔15〕当然,也有一些从司法角度进行研究,一方面是智慧法院的建设,〔16〕另一方面是对在线纠纷解决机制的探索。〔17〕其中有的研究者指出,辅助办案系统应当 “有限智能化”,即立法和理论应当为刑事司法人工智能设置禁区,案例规则及其调整,以及包含刑事政策、改革试验和地方规范在内的非正式制度是刑事司法智能系统的核心禁区,并且有必要在司法领域实现智能型标准化。〔18〕总体而言,已有研究成果或者不区分初级司法人工智能,或者从外部观察司法人工智能。但对人工智能裁判 (司法人工智能的终极形态) “是什么?” “是否可能?” “是否应当?”等问题明显缺乏理论上的准备。法学研究者在 “是什么” 的问题上一般将司法人工智能视为司法辅助工具,〔19〕但在 “是否可能”和 “是否应当”的问题上,又将其视为高级司法人工智能,这明显是矛盾的。

  总之,人工智能对法学理论和法律实践的价值和意义在于,提供方法论上的启示、提供了思想实验、辅助司法审判、促进司法公正、辅助法律教育、辅助立法活动。〔20〕从这方面讲,人工智能对司法而言是必要的。但是,司法人工智能究竟应当深入到什么程度? 特别人工智能裁判,涉及技术条件是否具备? 是否取得价值共识? 对于后者,问题等价于: 假定人工智能裁判的技术问题能够解决,案件可以交由机器人来裁判吗? 这些问题共同构成司法人工智能的 “终极问题”,下文将分别从本体论、认识论和价值论三个方面进一步分析。

  二、何谓人工智能裁判

  对人工智能裁判的本体论拷问,目的不是从下定义的角度来分析什么是人工智能裁判,不能简单地对比 “人工智能”与 “人类智能”、“机器人”与 “法官”、“算法”与“心证”等概念。司法裁判的性质和特点决定了从证据到案件事实、从案件事实到裁判结论,其中的每一步都关涉复杂的法律推理和法律论证,既是对事实的认定,又是对利益的衡量。

  比较之下,人工智能裁判的定位是,通过计算机系统模拟法官思维来进行法律推理并且作出最终裁判的一种审判模式。从一定意义上讲,人工智能裁判是一种法律推理和对传统法律推理模式的变革。因此,这里在方法论上可以确定的是,对人工智能裁判进行本体论拷问的对象,必然与其所展开的法律推理的对象、方式和结果直接相关。人工智能裁判与传统的人类智能裁判 (法官裁判) 的本质区别在于,人工智能裁判是一种“抽象裁判”。所谓的抽象裁判,即计算机系统根据预设的规则从一个法律或事实概念中推导出另一个法律或事实概念的过程。

  (一) 符号式裁判

  人工智能裁判的运行原理是通过计算机程序模拟和归纳法律论辩,回答其中的问题,以显示计算机系统能够理解其中的法律问题和事实问题。认知科学家一般将心灵看作符号处理系统或者计算机算法,即一组精密的、明确化的指令模型。所以,如张保生教授所称的 “人工智能法律系统”实际上是通过计算机算法表示出来的法官裁判思维,它是对法律裁判过程中内在心理机制的程式化。这种程式表现由各种字符和运算符号表达。在早期的人工智能研究中,费勒设计了一套名为 PANDORA 的系统。预先设定PTrans = 到外面去、Grasp = 把报纸从信箱里拿出来,以及 actor (行动者)、object (目的)、to (到哪去)、from (从哪来) 等单位表和结构表。费勒通过敲击键盘,计算机出现如下程序:

  Nextevent:

  (Time of Day (Time Moring)) Looking for goals for daytime:

  (Time of Day (Time Moring))

  Adding daytime goals:

  (Know (Object

  (State (Object (Object

  (Ident World)))))

  (Bnower (Person

  (Ident Ego)

  ……

  < Enter > Rain Cheok

  ( (At (Object (Person (Ident Ego)))

  (Spot (Location (Ident Outside)))))

  : < Enter > Watch Dryness

  ( (Dryness (Object (Person (Ident Ego)))

  (Degree Soaking)))〔21〕

  在这个系统中,PANDORA 使用 Franz Lisp、Opus38 和 PEARL 三种语言回答了 “外面正在下雨,应该怎么办?”PANDORA 的回答是: “稍等一下。要出去的话,应该看看是干的不是。就那样出去会都淋湿。”

  同理,人工智能裁判包含两个核心步骤: 语言转换和算法运行。人工智能裁判系统并不理解人类的自然语言,它所理解的只有物理符号,指计算机语言。这里的语言转换在于,首先将人们生活中的日常语言转换为法律语言,例如将 “我要告你”转换为 “我提起诉讼”,将 “张三打伤李四”转换为 “张三侵害李四的人身权”,将 “甲开车撞了李四后逃跑”转换为 “甲交通肇事后逃逸”,等等; 其次将法律语言转换成计算机语言。以上过程是对社会纠纷和诉讼的格式化和人工标记,任何纠纷作此处理后都将被转换为符号并输入进计算机。之后的人工智能裁判,则是根据预设好的算法根据一个符号得出另一个符号。对证据的处理也如此。我们首先要把每个证据所含的信息 (证据命题) 通过自然语言或者法律语言描述出来,然后根据事先编制的代码表将其格式化,再根据相应计算机程序得到预设的答案。

  如果说法官裁判是基于自然语言且在其语义和语言环境的影响下的 “意义裁判”。那么,人工智能裁判将是基于计算机算法而对具有特定意义的符号所进行的 “形式裁判”。最直观的表现就是,人工智能裁判系统没有直接接触当事人和证据,它针对的对象实际上是经过程序员格式化之后的计算机代码。

  (二) 封闭式裁判

  由于人工智能裁判的对象是代表计算机语言的符号,计算机算法则代表了人工智能的裁判思维。因此,算法的编制和裁判程序的设置尤其重要。从上文 PANDORA 的例子和世界各种人工智能专家系统中可知,人工智能的裁判思维 (算法) 实际上是预先编制好的,裁判只是在执行既定的运算程序而已。这意味着,人工智能裁判带有明显的封闭性特征。

  其一,预先编制的裁判系统。将人工智能裁判简单理解为计算机或者机器人裁判的想法是错误的。计算机本身无法完成裁判活动,真正促成计算机裁判的应当是该计算机运行的裁判系统。计算机不可能自己生成裁判系统,裁判系统必然产生于人类智能。也就使得人工智能裁判研究的核心是预设一套能够生成特定裁判结论的计算机系统。

  其二,不对外开放的裁判过程。假设存在一套人工智能裁判系统,司法裁判的过程将是由计算机智能地识别诉讼文书中的事实争议和法律争议,识别相关证据,得出裁判结论。在技术条件允许的情况下,上述过程可能在分秒间完成。一方面,人工智能裁判极大地提高了司法的效率,也极大地拓展了当事人的诉讼渠道。但另一方面,由于裁判系统是预先编制而且整个裁判过程在极短的时间内完成,这就使得整个裁判是一个 “一次性”过程。首先,在裁判的过程中,裁判程序不被修改; 其次,裁判系统只能被动的接受和识别信息,不能与当事人进行互动来筛选信息; 再次,当事人只能一次性地提供信息,在裁判过程中不能随时提出新的信息,更不能即时地对有争议的问题提出异议;最后,一般情况下,除了编制裁判系统的程序员外,当事人和社会公众甚至是主审法官并不能准确掌握裁判系统运行的原理和规则 (源代码),他们只是系统的使用者。

  其三,相对确定的裁判结论。人工智能迄今为止的工作一般都限于抽象思维领域。抽象思维是一步步推下去的,是线型的; 或者有分叉,是交叉型的。而形象思维它不是面形的、二维的,而是空间的综合的 “杂交” 过程,有时是跳跃的、发散的。〔22〕抽象思维与形象思维的差异同样揭示了人工智能裁判与法官裁判的区别。抽象思维决定了通过人工智能裁判系统得出的结论具有相对确定性。通俗地讲,人工智能裁判系统已经为每个裁判结论预设了可能需要的关键词和将关键词组成起来的算法规则,在算法给定的情况下,结论是基于形式逻辑通过线型推理得出的。或者说,裁判结论只是对不同既定关键词的组合。在遇到目标冲突时则会分成两个步骤: 一是算法之下做关键词的组合并形成答案库,二是在预设设定的答案库中选择本次的结论。由此可见,它与法官裁判的区别很大。法官裁判会因诉讼中可能出现的各种突发因素而导致裁判结论的不确定性,而人工智能裁判不会如此瞬息万变,人工智能下的裁判结论并不是随机产生的,即使在目标冲突的情况下结论也是相对确定的。

  (三) 归纳式裁判

  人工智能裁判的运作原理有二: 一是自然语言和法律语言之间的语言转换,二是裁判系统的算法运行。我们可以认为前者是对自然语言的处理,后者是对自然语言的分析。在这两个方面上,人工智能裁判均表现出归纳法的特征,这也是其裁判对象的符号性和裁判过程的封闭性的必然结果。

  在对自然语言的处理方面。如何有效地发挥庭审发现事实、解决纠纷的功能,无论对抗制还是纠问制都要求庭审是一场诉讼各方互动的活动,例如直接言词原则要求法官应当亲自听取双方当事人、证人及其他诉讼参与人的当庭陈述和法庭辩论,从而形成关于案件事实的内心确信,并据此作出裁判。然而,基于抽象思维的人工智能裁判无法做到这一点。虽然人工智能裁判也存在系统的运行活动,但缺乏了诉讼主体的论辩,并不能体现审判的即时性。因为在缺乏法官直接言词的情况下,人工智能裁判系统只是对与案件有关的历史数据的处理。

  在对自然语言的分析方面。这主要是指人工智能裁判系统无法对不确定的概念进行分析。换言之,人工智能裁判系统只能够识别意义明确或者多义但已经被格式化了的概念,裁判结论自然是唯一的或者有限的。需要说明的是,这里的 “唯一”并不是指法理上常说的 “客观真实”或者 “绝对的公平正义”,而是说在前提确定的情况下,人工智能裁判系统只能得到某个特定的答案。在逻辑上,这个裁判结论是由归纳推理而来,因为上述语言转换和算法运行均是归纳的。因此,人工智能裁判作为经验裁判,分析和比较的对象不是本案的即时信息,而是大数据库中的历史信息。

  三、人工智能裁判是否可能

  从性质和最终目标上看,人工智能裁判是对司法裁判模式的根本变革,在一定程度上将打破人类长期以来形成的司法习惯和司法规律。如果将人工智能裁判视为一项技术革新的话,关键在于技术上如何实现这种 “抽象裁判”。因此,有人难免会问: 人工智能裁判是否可能?

  (一) 重访塞尔的 “中文房间”

  关于人工智能的标准和模型有两个重要版本,一个是图灵版本,另一个是塞尔版本。图灵在 1950 年提出 “模仿游戏” 又称 “图灵测试”,用以回答 “机器能够思维吗”,其结论是如果计算机能够回答出由人提出的对话问题,则认为它具备了智能。照此标准,当今一些计算机已经具备了智能,例如击败卡斯帕罗夫的 “深蓝”、击败李世石的 Alpha Go 和 Alpha Go 的升级版 AlphaGo Zero。

  但以上经验真的说明计算机能够思维了吗? 塞尔对此提出反对意见: 虽然计算机通过了图灵测试,它也不是智能的。他认为人工智能可分为弱人工智能与强人工智能,“就 ‘弱'AI 而言,在心灵研究中,计算机的主要价值是为我们提供一个强大的工具。

  例如,它使我们以更严格、更精确的方式进行系统阐述和检验。然而就 ’强‘AI 而言,计算机不仅仅是研究心灵的工具,带有恰当程序的计算机已经成为了一个心灵。”〔23〕塞尔不反对弱人工智能,但对强人工智能的论断表示怀疑。他提出一个中文房间模型: 我是一个被关在屋子里只懂英文不懂中文的人,有人给我一批中文文本 (脚本) 和一套英文规则书 (程序),规则书可以使中文与英文发生联系,之后又给我一些中文和一些英文指令 (问题),通过查阅规则书我就可以使用中文回答英文指令提到问题。〔24〕塞尔在中文房间中做了三件事: 第一是接收陌生符号 (中文问题),第二是根据规则书将陌生符号转换成熟悉的符号 (中文转英文),第三是再根据规则书将熟悉的符号转换成陌生的符号并送出房间 (中文答案)。如果屋里的人的回答正确则认为他理解了中文问题;同理,将房间中的人替换成计算机也是如此。强 AI 的论断是,编程的计算机能够理解中文问题,并且这个程序解释了人类的理解。但塞尔最终认为: “计算机及其程序没有为理解提供充分条件,因为计算机及其程序只是正在运行,其中不存在理解。”〔25〕中文房间论证的结构如下:〔26〕大前提: 每一种真正的心灵 /智能都必须有能力在符号与对象之间建立起一种语义关系;小前提: 这种语义关系无法仅仅通过任何一台被恰当编程的计算机所获取;结论: 计算机本身不可能具有真正的心灵,因此强 AI 无法实现。

  这里进一步将上述小前提分解为以下几个论点:

  其一,计算机系统本身是非智能的。目前计算机程序多是基于二值逻辑的二进制计算,计算机只能做加法运算和逻辑运算。所以对于所有的数学运算,计算机系统都把它转换为加法运算; 对所有的逻辑运算都转换为 “与”、 “或”、 “非”等二值逻辑运算。问题在于,基于二值逻辑计算机系统只能回答 “是”与 “非”、“对”与 “错”的问题。在此前提下,计算机系统采用的实际是一种确定性推理,因为其结论并不是开放的和辩证的。但人类智能与此不同,还包括了多值逻辑、模态逻辑、辩证逻辑等,能够进行非确定性推理。非确定的推理是计算机系统无法实现的。因此, “基于二值逻辑的计算机系统是非智能型的,基于二值逻辑的塞尔机器也是没有任何智能可言的。”〔27〕

  其二,计算机系统不会产生意向性。胡塞尔指出: “认识体验具有一种意向,这属于认识体验的本质,它们意指某物,它们以这种或那种方式与对象发生关系。”〔28〕塞尔也在 《意向性》一书中提到: “所谓意向性,就是指某些心智状态和事件所具有的这样一种性质,这些心智状态和事件通过这种性质而指向或关涉 到 世 界 上 的 对 象 和 事态。”〔29〕意向性是人脑的最大特点,是人的心理状态的表现。这就与计算机系统有本质的不同,如前所述,计算机思维的原理是算法运行,也就是一种无意识状态下的形式活动。这是因为计算机程序只有语法,没有语义。在表面上,计算机系统只是在机械地执行算法规则,不停地转换符号而不知道每个符号的现实意义。况且仅就语言的认知层级而言,“目前的计算机自然语言处理系统在最基础的句法加工上的表现也只能是差强人意 (仅对英语而言),在语义加工和语用加工上则只能是 ’望文兴叹‘ 或 ’听语兴叹‘。”〔30〕

  以上就导致在实质上,“现有的人工智能系统无法根据语义内容的灵活性处理包含隐喻、反讽等修辞现象的语句。”〔31〕换言之,计算机不能在同一语境下对不同的词作出不同选择,也不能在不同语境下对同一词作出不同选择。例如,假设计算机知道 “坏”字的教科书意思有 “品质恶劣、受到损伤、品性差”,它就能知道某甲在对某乙说 “你好坏!”时是想表达某乙是个“坏人”(品性差的人),但它不会知道恋人之间说的 “你好坏!”完全不是这个意思。在后种情况下,计算机错误地判断了某乙的性质。此外,计算机没有直觉感知,不会做出 “激情选择”。无论怎么给计算机输入“人”这个字,在它的二进制算法下也无法像人类一样在眼前浮现出一个鲜活的人。当然,更不会带着情感去做事。例如,命令机器人去杀人,它会直到杀死这个人后才停止工作; 但命令一个人去杀人,他完全可能因想到目标的相貌或者产生怜悯之心而中止杀人行为。再如,计算机不会像人一样的感情用事,做一些随性的事情,它只能做既定的事情。在这方面,即使计算机再怎么模仿人类思维,也不会产生意向性。 “模仿中虽有意义存在,但没有生成意义的原始环节,因而无法摆脱对人的依赖,并不能视为体现出意向性。〔32〕最后,正如塞尔所言,句法本质上是个与观察者相关联的概念,而且句法不是内在于物理学的,也没有因果能力。〔33〕以上只有人类智能才能做到。

  其三,常识推论无法被形式化。谈到人工智能就意味着自然语言处理和常识推论,它们属于人工智能领域研究的最困难的问题。先就常识推论而言, ”让计算机下国际象棋、解决疑难问题、进行定理证明等等错综复杂的工作都不成问题; 偏偏在关系到理解日常社会、生活方面简单又简单的事情时,计算机却一塌糊涂,蠢到令人无法相信的程度。“〔34〕这是为什么? 一方面,常识推论所依靠的 ”常识“ 由于没有固定的内容和边界,所以无法将人类日常生活中的一切常识赋予计算机。另一方面,因为常识推论强调结论的合理性,取决于人类社会的一般经验,而且带有一定的个体自由,不同的人可能作出不同的判断,所以常识推论本身也无法被形式化。

  其四,不存在完全的规则书。连接 ”中文房间“内外的关键是塞尔所谓的规则书。可以说,计算机是否具备智能及其智能的强弱取决于规则书的详尽程度。这一来,问题就在于能否编制出一个完全的规则书? 本文认为,这是不可能的。编制一本完全的规则书至少需要两个要素: 规则和知识。关于规则,如前所述,常识推论无法被形式化,也就导致规则书在规则编制方面是不完全的。关于编制规则书所需的知识,包括常识和专业知识。常识是不能被形式化的,专业知识亦不能被形式化。专业知识包括公开的知识和个人知识。前者在一定程度上可以被形式化地编入规则书,如汉英词典; 后者则不能。因为个人知识又称经验,经验往往难以言表,又与意向性直接相关,而计算机无法拥有人类所有的经验。相信这也正是 ”在人工智能发展过程里,专家系统的开发中,早就出现的常识问题被不断地强调,它非常、非常、非常重要,但迄今为止没有突破“〔35〕的根本原因。

  总体而言,人工智能虽然能够模拟人类智能的某些方面,但人类智能所特有的非形式化的认知和非形式化的认知方法是很难被完全模拟的。因此,人工智能难以与人类智能等同,塞尔所谓的强人工智能更难以实现。

  (二) 困于 ”中文房间“的人工智能裁判

  作为人工智能的一个分支,人工智能裁判至少在现阶段还不可能。〔36〕这由人工智能发展的本身的困境和法律认知的特殊性共同决定: 一方面,人工智能裁判属于强人工智能的具体表现,在上述强人工智能自身的认知困境尚未突破之前,人工智能裁判更加不可能。另一方面,法律认知的特殊性成为实现人工智能裁判的最大障碍。需要说明的是,这里所谓的 ”法律认知“ 并不是指公民对法律实体、法律程序和法律本性的认知,〔37〕而是指法官在裁判过程中的法律认知,包括通过证据认定案件事实,以及在事实认定的基础之上适用法律作出裁判。

  我们可以从两个方面知道计算机目前不能完全模仿法律认知。首先,作为裁判知识的法律认知不能被形式化。法律认知对逻辑和经验有严格的要求,然而二者都是不确定的,所以法律认知是在有争议的环境下进行的。在逻辑方面,它要严格遵循法律的三段论,从前提到结论是一个论证的过程,而且该论证过程并不一定都带有演绎的特征。法律认知的前提往往是不确定的。例如,在法律适用中究竟何谓 《刑法》 规定的 ”明知“、”以非法占有为目的“、”猥亵“、”侮辱“、”淫秽物品“? 又如,在事实认定中,行为人行李中的毒品究竟是用来”贩卖“还是”吸食“? 这些现实的司法难题说明法律规则和案件事实都具有开放性特征,需要法官能动地认识才能将其确定下来。既然法律认知属于理解的范畴,那么又涉及由确定的知识 (如科学定理、数学公式) 和不确定的知识 (如常识、经验) 构成的理解所必须的背景知识。如果前者勉强可被形式化,后者则无法实现。这并不是说个别经验不能被形式化,而是指我们无法编制出一个可供计算机裁判的经验库。因为司法实践中,法官面对的案件是即时的和具体的,而不是过去的和抽象的,所以个案需要将什么样的经验作为法律认知的前提,在法官接触案件之前是未知的。因此导致我们不能事前穷尽可供法官用以裁判的一切经验。

  此外,作为裁判方法的法律认知也不能被形式化。原因有三:

  其一,司法裁判方法具有意向性,而计算机不具有意向性。在这方面,法律认知即法官的自由心证,要求法官根据自己的内心确信来裁判,有”良心裁判“、”情理推断“或者”最佳解释推理“等表现形式。但是无论何者,本质都应当属于法官的意向活动,特别是对经验法则的合理运用。然而,计算机是对人类智能的模拟而非复制,在方法论上计算机不具有能动性,也就不可能掌握运用经验法则裁判的原理和规则。退一步讲,即使对人类而言,究竟如何理解经验法则以及准确地运用经验法则认定案件事实、作出裁判,也都是没有彻底解决的问题。

  其二,司法裁判方法强调法官的亲历性,而计算机不具有直观感知。司法的亲历性,是指司法人员应当亲身经历案件审理的全过程,直接接触和审查各种证据,特别是直接听取诉讼双方的主张、理由、依据和质辩,直接听取其他诉讼参与人的言词陈述,并对案件作出裁判,以实现司法公正。这是由司法所要解决的问题的微观性和重要性、准确认定案件事实的复杂性、实现程序公正和形成心证所决定的。〔38〕在诉讼当事人对待证事实各执一词时,法官只有深入争端,察言观色地亲自听取诉讼主体的陈述,才能准确辨别证据的真与假,辨明案情的是与非。这个亲历性过程中的很多问题都是不确定的,法官不去亲身经历是不可能知道的。然而,计算机却不具有这种能力。一来计算机不会有目的地审查证据,发现证据疑点。当然,在已经将证据形式化的前提下,也不具备让计算机主动发现证据疑点的条件。二来计算机所接触到的证据已经是被形式化了的”二手证据“,本质上还属于传统的 ”书面审查“。当然,最关键的是,计算机只能识别符号,而无法 ”看见“纷繁的物证和神态各异的证人。

  其三,司法裁判方法是一种价值衡量方法,而计算机不具有价值观。计算机没有情感和意向性,也就必然导致其在裁判中不可能进行价值衡量。然而,司法裁判又绕不开权衡各方利益,例如司法实践中常说的 ”三个效果“。通过计算机的裁判最多是一种形式裁判,能够保证逻辑上的正确性已经十分困难。乐观地说,人工智能裁判最多实现法律效果,而无法满足司法实践所需要的社会效果和政治效果。因为,计算机只能模拟法官的思维在形式上作出一个裁判; 换言之,对计算机而言,司法裁判的意义仅仅是编写一份判决书而已,或者说产出一份看似像判决书的东西。计算机无法根据对裁判结果作出后可能产生的法外效果的预测来适当地调整裁判内容。

  综上所述,即使通过图灵测试的计算机也未必走得出中文房间。同理,在计算机完全具备法官的裁判知识和裁判方法之前,即使计算机拥有基本的推理能力,也暂时无法实现人工智能裁判。当然,我们也不能完全站在当前的技术水平上评判未来,随着计算机技术的高度发展,或许人工智能裁判技术在未来有其成熟之时。

  四、人工智能裁判是否应当

  基于上文分析,可能有人会将技术问题归结为阻碍现实人工智能裁判的根本原因,似乎解决了技术问题人工智能裁判就能实现。其实不然,人工智能裁判还涉及非常强的法律伦理。正如 ”阿西洛马人工智能原则“指出的: ”应该设计高度自主的人工智能系统,以确保其目标和行为在整个运行过程中与人类价值观相一致。“那么,司法裁判的核心价值观是什么? 进而要问的问题是,如果技术问题解决了,人工智能裁判就应当吗?

  本文认为,司法裁判的核心价值观,即公平正义。但有两个前提,一是准确地认定案件事实,二是最大程度的公平正义而非绝对的公平正义。前者是思维论辩的过程,后者是利益衡量的过程。这两个过程均属于人类的智能活动,必须受到道德的约束。因此,假设有一天实现了强人工智能甚至超人工智能,案件裁判的决定权也应当在人 (法官)。

  人工智能裁判是否应当,或者说未来社会是否能够推行人工智能裁判? 其关键不在于技术问题如何解决,而在于人类对待人工智能裁判的态度如何。可以预测,人工智能裁判在今后很长一段时间内取得社会主流价值观的认同还很困难。在司法领域,准确认定案件事实和实现公平正义的最大化必须由人来完成的原因,除上文所述之外,还在于审判显示了人类在纠纷解决方面的主权性。首先,只有人能真正理解法律和司法的内涵; 其次,只有人能真正识别社会纠纷涉及的法律问题和事实问题的所在; 再次,只有人能权衡裁判结论的利弊所在; 最后,只有将人类社会的矛盾交由人来解决,裁判结论才有权威性。相反,人工智能裁判并不是我们法律意义上的审判,它的根本目的不是解决社会纠纷,而是完成程序运算。也就是说,公平正义仅仅是人工智能裁判的间接效果或者附随效果。

  另一方面,人工智能裁判必须基于社会公众的普遍认同。就目前而言,这几乎不可能。据调查,人们比较希望使用人工智能的领域从高到低依次有智能家居/家政 (83. 9% )、交通运 输 (70. 3% )、老 年 人/儿 童 陪 护 ( 68. 3% )、新 闻/购 物/音 乐 等 个 性 化 推 荐(64. 3% )、教 育/教 学 (56. 4% )、客 户 服 务 (55. 5% )、金 融 服 务 (49. 8% )、伴 侣(13. 5% )。相比之下,仅有 39% 的人接受在 ”合同、诉讼等法律实践“中使用人工智能,而且认为应该是 ”人类为主、人工智能为辅“的弱人工智能。大多数科学家及技术研究者则认为强人工智能在 2030 年以后甚至 2100 年才可能实现。〔39〕可见,人们目前最多接受初级的司法人工智能。还有一个最重要的原因,即在实现人工智能裁判之前,我们还尚未彻底消除人们对司法公信力的怀疑,司法腐败屡见不鲜。也就是说,如果人们对法官裁判的公正性都持怀疑态度的话,那么更加不能期待计算机裁判能够获得认同。

  当然,本文并非在价值论上完全否定人工智能裁判。如果假以时日人工智能裁判得到了法律共同体的认同,又得到社会公众的普遍认同,那么将案件交由计算机裁判也未尝不可。

  结论

  人工智能裁判作为高级司法人工智能最主要的表现形式,可能对人类司法规律带来根本的变革。我们应当在认清现实的前提下以乐观的态度视之。基于从本体论、认识论和价值论三个层面对人工智能裁判的分析,本文最终得出这样的结论:

  第一,在人工智能裁判 ”是什么“的本体论问题上,人工智能裁判是指通过计算机系统模拟法官思维来进行法律推理,并且作出最终裁判的全新审判模式,也就是塞尔所谓的强人工智能。其最大特征在于,在最大程度上提高审判效率,缓解案多人少的困境,减少司法的人力投入和物力投入。从这个角度而言,司法裁判确实有引入人工智能的需要。

  第二,在人工智能裁判 ”是否可能“的认识论问题上,当前的技术水平还不能使人工智能裁判走出中文房间。因此,就技术问题而言,人工智能裁判至少在现阶段还不可能实现。

  第三,在人工智能裁判 ”是否应当“的价值论问题上,假设技术问题可以解决,价值上应当一分为二: 如果人工智能裁判不能得到社会的普遍认同,即使在技术上可以做到,我们也不应当将案件交给计算机来裁判; 反之,我们应当选择人工智能裁判,因为这既是公众认知的结果,也符合科技发展的趋势,也将成为人类司法文明划时代的进步。

  最终的结论是,人工智能裁判在本质上属于价值问题,价值上的允许是使其走向现实的关键。至于认识问题即技术上的困境,在现阶段有不可逾越的障碍,但不宜就此切断人工智能裁判在未来的可能性。《国家检察官学院学报》2018 年第 5 期

【参考文献】
〔1 〕严格来说 “人工智能”属于一门学科,本文为了便于理解构造 “司法人工智能”的概念,以表示人工智能技术在司法领域的运用。
〔2 〕参见宁杰: 《坚持问题导向和需求牵引,全面加强智慧法院建设》,《人民法院报》2017 年 9 月 12 日。
〔3 〕参见腾讯研究院、中国通信院互联网法律研究中心、腾讯 AILab 等: 《人工智能---国家人工智能战略行动抓手》,中国人民大学出版社 2017 年版
〔4 〕参见 [英]理查德·萨斯坎德: 《法律人的明天会怎样? ---法律职业的未来》,何广越译,北京大学出版社 2015 年版
〔6 〕张保生: 《人工智能法律系统的法理学思考》,《法学评论》2001 年第 5 期。
〔7 〕参见严剑漪: 《揭秘 “206”: 法院未来的人工智能图景---上海刑事案件智能辅助办案系统 154 天研发实录》,《人民法院报》2017 年 7 月 10 日。参见刘品新: 《大数据司法的学术观察》,《人民检察》2017 年第 23 期。
〔8 〕张国英、何元娇: 《人工智能知识体系及学科综述》,《计算机教育》2010 年第 8 期。
〔9 〕参见前注 [8]。
〔10〕Stuart J. Russell ,“Rationality and Intelligence,”Artificial Intelligence 94 no. 1 - 2 (1997)
〔11〕参见郑祥福: 《人工智能的四大哲学问题》,《科学技术与辩证法》2005 年第 5 期。
〔12〕D. Kirsh,“Foundation of AI: the Big Issue,”Artificial Intelligence no. 47 (1991)
〔13〕参见郑戈: 《人工智能与法律的未来》,《探索与争鸣》2017 年第 10 期。
〔14〕参见吴汉东: 《人工智能时代的制度安排与法律规制》,《法律科学》2017 年第 5 期。
〔15〕参见刘宪权: 《人工智能时代的 “内忧” “外患”与刑事责任》,《东方法学》2018 年第 1 期; 刘宪权:
〔16〕《人工智能时代的刑事风险与刑法应对》,《法商研究》2018 年第 1 期。
〔17〕相关论述参见徐骏: 《智慧法院的法理审思》,《法学》2017 年第 3 期; 蔡立东: 《智慧法院建设: 事实原则与制度支撑》,《中国应用法学》2017 年第 2 期; 叶青: 《从大数据看智慧法院建设》,《人民法院报》2017 年 10 月 23 日; 刘品新: 《大数据司法的学术观察》,《人民检察》2017 年第 23 期。
〔18〕相关论述参见胡晓霞: 《我国在线纠纷解决机制发展的现实困境与未来出路》,《法学论坛》2017 年第 5期; 龙飞: 《中国在线纠纷解决机制的发展现状及未来前景》, 《法律适用》2016 年第 10 期; 郑世保:
〔19〕《在线纠纷解决机制的困境和对策》,《法律科学》2013 年第 6 期。参见黄京平: 《刑事司法人工智能的负面清单》,《探索与争鸣》2017 年第 10 期。参见李晟: 《略论人工智能语境下的法律转型》,《法律科学》2018 年第 1 期。
〔20〕 参见张保生: 《人工智能法律系统的法理学思考》,《法学评论》2001 年第 5 期。
〔21〕 篇幅所限这里仅作列举,详细程序参见 [美]弗兰克·罗斯: 《走进人类心灵---向人工智能挑战》,李雅平等译,春秋出版社 1989 年版
〔22〕 参见董军: 《人工智能哲学》,科学出版社 2011 年版
〔23〕John R. Searle,“Minds,Brains,and Programs,”Behavioral and Brain Sciences 3 no. 3 (1980): 417.Ibid
〔24〕同前注 [24]。
〔25〕徐英瑾: 《对 “汉字屋论证”逻辑结构的五种诊断模式》,《复旦学报》(社会科学版) 2008 年第 3 期。
〔26〕蔡曙山: 《哲学家如何理解人工智能---塞尔的 “中文房间争论”及其意义》,《自然辩证法研究》2001年第 11 期
〔27〕
〔28〕[德]胡塞尔: 《现象学的观念》,倪梁康译,商务印书馆 2016 年版
〔29〕刘叶涛: 《从分析的角度看意向性-塞尔 < 意向性 > 评介》,《逻辑学研究》2009 年第 1 期。
〔30〕蔡曙山、薛小迪: 《人工智能与人类智能---从认知科学五个层级的理论看人机大战》, 《北京大学学报》(哲学社会科学版) 2016 年第 4 期。
〔31〕徐英瑾: 《强人工智能、弱人工智能及语义落地问题》,http:/ /mp. weixin. qq. com/s/_CiD8wR - onrJG_pmleoONw,最后访问日期: 2018 年 1 月 20 日。
〔32〕刘西瑞、王汉琦: 《人工智能与意向性问题》,《自然辩证法研究》2001 年第 12 期。
〔33〕参见 [美]约翰·R·塞尔: 《心灵的再发现》,王巍译,中国人民大学出版社 2005 年版
〔34〕[美]弗兰克·罗斯: 《走进人类心灵---向人工智能挑战》,李雅平等译,春秋出版社 1989 年版
〔35〕同前注 [22]
〔36〕需要说明的是,在现在科技水平条件下人工智能裁判的技术不可能性不等于未来的不可能。
〔37〕参见幸强国: 《法律认知层次刍议》,《四川师范大学学报》(社会科学版) 1995 年第 3 期。
(38)参见朱孝清: 《司法的亲历性》,《中外法学》2015 年第 4 期。
〔39〕以下数据均来源于腾讯研究院于 2017 年 5 - 6 月做的网络调查。参见前注 [3]
        
        
      首都法学网       北京市高级人民法院       中美法律信息与图书馆论坛(CAFLL)
      国家图书馆       美国法律图书馆学会(AALL)       国家检察官学院
      中国社科院法学所图书馆       国际法律图书馆协会(IALL)       最高人民法院图书馆

主管单位:中国法学会  主办单位:中国法学法律网合作机制 技术支持:北大英华科技有限公司(北大法宝)
电话:010-82668266-152 传真:010-82668268 京公网安备 11010802020444号
加入收藏 | 本站首页 | 联系我们
go