本站首页 关于我们 法律图书馆与法律信息研究会 法律信息研究 中外法律图书馆 法学文献与检索 政府信息公开 法律图书馆导航 法律法学网导航
中外政府出版物
政府信息公开研究
政府信息传播与利用
  当前位置:首页 > 政府信息公开 > 法律信息资源
法律信息资源
暂无下载资料

 智慧司法的难题及其破解
            马靖云 点击量:3933
南京大学法学院
【摘要】
技术的迅猛发展冲击了司法,也重塑了司法活动,智慧司法时代已然来临。但技术有其原生性缺陷,因此智能技术的司法应用也就不可避免地具有局限性,比如概率建模下的司法要素限缩、裁决算法的价值偏见、裁决算法黑箱。这些局限性导致智慧司法在显示其超强功效的同时也面临着现实难题:技术与司法耦合的难度(数据采样的模糊性、司法要素提取的高难性)、智慧司法的风险(算法决策下的机械司法、司法过程中的“数据鸿沟”、技术司法应用的边界。破解这些难题的路径是基于私权利保护的理念,从设置算法的论证程序、嵌入案件纠补机制、确立算法解释规则、限定技术应用空间及构建司法商谈机制等多个程序入手,促使智慧司法健康发展。
【关键字】
司法要素限缩 算法黑箱 机械司法 数据鸿沟 司法商谈机制
    

  一、智能技术司法应用的局限性

  智能技术在司法领域的应用,为司法活动带来重大发展与创新的同时,也显现出一定的局限性,这导致智慧司法从源头开始就不可能尽善尽美。

  (一)概率建模下的司法要素限缩

  司法智能化其实就是对既有的司法裁判进行概率建模,归纳出能够体现同类案件处理的共性与标准的司法要素,辅助法官办案。“司法裁判并非单向度的推理,它在本质上是一种向着普遍实践论证开放的复杂活动,即向着道德、伦理和实用性理由开放。”〔2〕而智能技术是无法涵摄复杂的司法裁判的全部过程和全部信息,概率建模使得司法裁判在信息化、智能化的操作之下简单化、扁平化,导致潜在的“司法要素限缩”。这是由几方面原因造成的:首先,概率建模需要从相对标准化的司法文书中提炼共性,进而确定类案同判的统一标准。但是,在司法实践中,真正意义上的标准化司法文书是有限的,不同层级、不同地域、不同法院、不同法官所制作的司法文书往往各不相同,导致司法文书并不能真实反映司法裁判规则与裁判经验。其次,司法裁判是一个相当复杂的集合体系,不仅涉及司法过程中的案件事实、法律规范的点状集合,而且涉及政策、经济、伦理和道德等方方面面的多维度的要素集合,这些要素往往以一种“只可意会不可言传”的形式渗透于司法裁判中,影响到法官的主观判断及最终的司法裁决结果,这也会造成概率建模对于案件的情境信息和隐藏信息的涵摄不足。最后,司法要素之间还存在复杂的组合方式,关于司法要素如何筛选、位阶顺序如何划分,以及权重比例如何分配,并不是仅靠单纯的数据累加或简单的因果逻辑就能够完成的,它们需要人类的理性与感性的结合来作出主观判断。这需要法律专业人士先将相关领域的知识汇总、梳理,进行信息化描述,构建成精细的法律知识图谱喂养计算机。显然,当前我们在这一层面的工作是极度欠缺的。

  既然司法要素是被限缩的,那么智能化辅助系统就不可能实现在充分的数据整理、类分与解析基础上进行有效知识图谱建构与情景模型训练,会消减其在司法裁判过程中的价值。

  (二)裁决算法的价值偏见

  司法活动是一种法律治理手段,遵循的是社会共识的逻辑,而技术治理遵循的是自我偏好的逻辑。“价值观和欲望会影响我们的选择,包括我们选择去搜集的数据和我们要问的问题。而模型(算法)正是利用数学工具包装出来的各种主要观点。”〔3〕裁决算法的价值偏见存在以下几种情形:第一,算法赖以运行的数据库、分析参数及预测模型等都是由工程师、程序员完成的,而这一过程缺少必要的检验和价值权衡。因此,当工程师、程序员将其内心的偏见与价值观贯穿于程序设计中时,算法决策也会存在价值偏见。呈现在司法人员面前的,可能是已经被算法固化的偏见性数据。第二,从人类趋利避害的本性来说,在多种算法可以选择的情况下,智能服务商一定是倾向于选择更有利于自身利益的算法,以便更好地控制智能算法系统,维护其后期经济利益。并且,出于对私利的考虑,智能服务商也有可能在明知算法存有漏洞而可能导致偏见的情况下,仍然将其作为合格产品交付司法机关使用。第三,裁决算法是在用过去预测未来,它所依赖的是已有的案例数据。社会生活是纷繁复杂的,新的行为模式、新的商业生态、新的生活观念、新的司法问题不断涌现,但是裁决算法基于其“机器”的本质,没有生活经验及感性思维的固有缺陷,无法做出准确的应变,旧的裁决算法在适用新的案件事实时就可能产生价值偏见。第四,基于数据不统一、不完善造成的算法偏见。中国经济发展不均衡导致了互联网覆盖的严重不均衡,这就直接造成了数据信息的不统一、不完善。经济发展落后的地区因为互联网应用有限,相关案件资料不完善,且同类事实与经济发达地区的司法裁决结果也会有明显差异。不全面的数据必然会导致裁决算法的偏颇、适用于特殊地域显现出不合理性。

  由此,当智能系统执行裁决算法时,所获得的有关权利义务分配、法律责任分担等决策结果,可能在形式上符合程序正义的要求,但在实质上与法律原则、价值等精神内核完全相左。

  (三)裁决算法黑箱

  智慧司法备受质疑的一点就是裁决算法不能透明化的问题。通过裁决算法分析得出的结论,如何给予当事人和律师相应的知情权及进行抗辩的权利,使当事人及其律师能够清楚司法角色所认可的裁决算法的逻辑并有针对性地发表抗辩意见,是程序正义和实体正义的共同要求。但是,现实的情况是,裁决算法的透明化存在着很大的局限性,一是因为智能服务商基于商业秘密的保护,不愿意对外公开裁决算法的内在逻辑、源代码;二是基于现有的专业技术水平,智能服务商很难将算法的内在逻辑、源代码充分转化成自然语言或可视化技术直接向当事人和律师公开。这就造成了“裁决算法黑箱”的存在,当事人及其律师只能看到算法的决策结果,却无从知晓算法决策的程序和逻辑。裁决算法黑箱直接限制了当事人的知情权和抗辩权,很显然,这是对司法正义的严重悖离。

  司法唯有在阳光下运行才有可能避免司法腐败及司法恣意,司法正义只有看得见才可以获得当事人和社会公众的尊重与信服。因此,裁决算法黑箱的存在,必然会影响智慧司法的公信力和权威。

  二、智慧司法的现实难题

  智慧司法基于智能技术在司法应用中的局限性,也会面临诸多现实难题:技术与司法耦合的难度、智慧司法的风险。

  (一)技术与司法耦合的难度

  1.数据采样的有限性

  “数据的可靠性,须以真实、完整、有用为基础,也即足以反映司法规律、契合办案需求、具有实现形式正义与实质正义相统一的效果。如此,才能符合人工智能对数据的基本要求。”〔4〕

  司法智能的开发与模型的建立依赖于司法数据的充分与全面,存在海量的司法数据是必要前提之一。“目前,我国司法领域人工智能技术开发的数据基本来源于中国裁判文书网上的裁判文书。但中国裁判文书网是2014年才开始正式启用的,上网的裁判文书数量可能只有审结案件的50%。”〔5〕这就造成了司法大数据的来源不足,因为绝大多数的法院并没有设置专门的机构和专业的人才汇总司法裁判文书,导致司法系统内部仍然隐藏着大量的司法裁决文书并没有被转化成数据信息。而且,这些被公开的司法裁决文书也存在部分制作错误、不规范而不能被有效利用的情况。

  关于司法文书的公开范畴也是有限的。目前仅有司法裁判文书、庭审笔录等被纳入数据库中,还有大量的司法相关文件并没有被列入公开范畴,例如审判委员会的会议纪要、合议庭会议记录、法院的审结报告等。但这些文件往往直接体现了司法角色的法律思维和逻辑判断,对于司法角色如何定罪量刑、如何达到裁判结论的法律逻辑和考量都有深入的剖析,是司法裁判不可或缺的参数要素。

  关于法律规范的公开范畴同样也是有限的。除了法律、法规、司法解释等,实践中存在大量的会议纪要、政策文件、行业规则等司法角色作出裁决的重要依据,目前没有被列入大数据采样范畴。数据采样的有限性还有一个原因是基于案例规则的流动性造成的。在司法实践中,案例规则的位阶顺序并不是一成不变的,有的会升格为更高位阶的规则,有的会转化为位阶相同的规则。被升格或转化后的案例规则,必然会对原有的司法数据组成、司法建模造成一定的影响。

  2.司法要素抽取的高难性

  智慧司法的“大数据中心”,是通过对司法要素的抽取,转化成数据信息,构建成司法系统内部的数据资源库和知识资源体系。但是,司法要素的抽取具有现实的高难性,技术语言如何与法律语言高度衔接,如何把司法要素抽取出来转变成机器可以识别的数字代码,是现实需要解决的问题。

  第一,人工智能系统并没有深度思考法律语言的特性对于智能技术的特殊要求。举例来说,自然语言识别技术(NLP)就无法完全适应司法领域的需求。法律语言与普通的自然语言的含义有所差异,基于概括性、准确性的目标诉求,它通常是用一种模糊的方式定义和描述人类的行为。如果不将这些模糊的法律语言转化成规范的技术语言--数字代码,以数字化结构且可识别的数据形式逐一“喂”给计算机,以便机器识别和处理,那么就无法实现真正意义的人工智能司法决策。

  第二,目前的人工智能在对不确定性和模糊性的素材处理方面也是有技术壁垒的。以206的证据规则校验功能来说,目前的人工智能对手写体、签名捺印的识别率不高,对于图片的辨析度不够,仅能够识别数量,而无法识别同类图片。

  第三,另一亟待解决的技术难题是人工智能“目前主要以逻辑学加持,而非数学加持,这种基于逻辑学驱动的法律AI研究缺乏实践操作性,而真正的法律AI应用需要用数学计算这一硅基本质的方式来解决法律具象问题,而实现这一点目前还相距甚远”。〔6〕

  第四,就司法实践而言,除了显性的司法要素之外,还有一些隐性的司法要素,对于隐性司法要素的抽取更是难上加难。“法官的某些价值取向、主观偏好、司法潜见、偏见、实践经验,甚至性别、年龄、学历、个性等事实上也与案件处理结果有关。而对这些信息的收集、整理,再强大的人工智能也尚需时日,至少不大可能从现有判决书中抓取出来。”〔7〕

  第五,公检法数据库能否有效衔接所引发的司法要素的统一性问题。公检法基于其职业角色不同,逻辑思维不同,必然导致其数据系统存在不同的设计理念。不同的设计理念就意味着不同的司法要素产生,如何进行有效整合与衔接,为司法裁判所用,这也是智慧司法需要解决的技术与理念问题。如果不能将所有必要的司法要素抽取出来并转化成数字代码,则必然意味着大数据、算法的基础是不可靠的、不精确的。

  (二)智慧司法的风险

  智能技术在提高司法角色的决策能力、司法决策的精确性的同时,也裹挟着巨大的风险,这些风险很可能会冲击司法权运行的根基,影响社会公众对于智慧司法的接受与信服。

  1.算法决策下的机械司法

  据研究,算法的自动化决策系统能够以微妙而有效的方式塑造使用者的感受和行为,破坏个人的独立判断力。“有时即便存在系统不准确的证据,算法控制者仍然会相信这一自动决策系统生成的评估结论。”〔8〕因为,“我们中的大多数人都是‘认知的吝啬者'--多愿选择只需付出最小认知努力的路径甚或选择相信直觉而放弃对每项决策进行系统分析。”〔9〕在大量的数据面前,司法人员容易对算法决策结论产生盲目迷信,如传统司法对于鉴定结论的盲目信赖一般,从而导致司法人员的能动性法律判断的弱化。一是因为人类天生的“懈怠”心理,司法人员不愿意花费时间、精力对算法决策结论再进行充分的反思与检验;二是“推卸责任”心理,基于算法决策作出的判断与决策更容易减少司法人员自己承担责任的风险性,因此司法人员更倾向于对算法决策采取“顺水推舟”的策略;三是技术专业知识不足,导致司法人员不能或很难发现算法决策的隐性纰漏。

  对于算法决策的盲信和盲从,就会导致“机械司法”。司法裁判中的事实认定,其实是人类的先天知性能力对于外在世界“杂多”的“统合”问题。而人工智能没有亲历社会的变革过程,仅凭部分数据与算法规则是无法与人在复杂的社会关系中、社会变迁中形成的知性能力相比的。具体的法律适用都是与语境连在一起的,离开语境因素,规则判断就会变得僵化,必然会导致“机械司法”。

  2.司法过程中的“数据鸿沟”

  数字信息鸿沟是大数据领域内的一种“贫富差距”的体现,“是指在信息社会中,不同国家、地区、行业的人群由于对社会信息资源占有和使用程度的不同而造成的’信息落差‘和’知识分隔‘。”〔10〕数字信息鸿沟其实就是数据鸿沟,它可能会导致社会的进一步撕裂,阶层划分的进一步固化,甚至导致既有“不公平”的加剧。

  在智慧司法时代,司法场域会呈现出严重的“数据鸿沟”现象。这种“数据鸿沟”是基于技术知识资源分配不均衡导致的。〔11〕在这种关系之中,算法控制者(无论是司法机关还是智能服务商)与普通的个人之间已经形成了一定程度的不平等。“在这样的场景中,算法控制者经其掌控的算法从而对个人了如指掌,但反过来,算法于个人而言却是’黑箱‘,这将导致个人与算法控制者之间权力与信息显著的不对称。”〔12〕由于算法的复杂性和神秘性,对于技术知识资源占有不同比重的主体在面对司法活动时的强弱差距就会很明显地表现出来。在司法领域中,公权力与私权利的司法资本原本就分配不均衡,而数据信息对于司法领域的介入,加剧了这种不均衡的现象。就公民个体而言,他们只能了解到自己面对大数据信息、算法规则可能会承受什么样的法律结果,但对于哪些数据是被算法规则利用的,是如何影响司法裁决结果的,不得而知或者一知半解。

  这种“数据鸿沟”一定程度上削减了公民个体的程序权利,也必然影响着公民个体实体权利的行使。而且,司法机关依靠大数据、算法等数字信息技术的全面装备,将公民个体置于司法权力的控制之下,而公民个体却难以有效地运用大数据来维护其私权利,即很难通过数据抗辩来制衡司法权的运行。因此,数据信息的不均衡会成为法律主体之间强弱分化的鸿沟,可能造成新的“不公平”现象。

  3.技术司法应用的边界

  近年来,在智慧司法的构建过程中,智能技术扮演着越来越重要的角色,渗透到司法活动的各个环节,譬如证据规则指引、单一证据校验、逮捕条件审查、社会危险性评估、类案推送、量刑参考、案件评议、减刑假释案件办理等。越来越多的司法机关建成强大的信息系统,开发出更加智能的软件来代替传统的司法审理活动,甚至做出裁判。

  但是,司法活动本质上是对于人类实践理性的具体应用,而“实践理性并非某种单一的分析方法,甚至也不是一组相关联的方法。它是一个杂货箱,里面有掌故、内省、思想、常识、设身处地、动机考察、言说者的权威、隐喻、类推、先例、习惯、记忆、’经历‘、直觉及归纳……”〔13〕这就意味着,司法不可能成为纯粹的技术,过分地应用技术会引发司法根基的动摇。因此,大数据、人工智能等技术在司法领域的应用,边界如何划分?禁区如何设定?都是值得我们思考的问题。

  三、智慧司法难题的破解路径

  对智慧司法所面临的现实难题进行深入的研究和有效回应,共同寻找破解路径,是法律职业共同体乃至全社会的共同使命:

  (一)设置算法的论证程序

  算法会在一定程度上抑制司法人员的恣意,增加法律适用的统一性而减少偏见。但与此同时,算法也可能带来偏见并挑战司法正义。因此,在大数据、算法等智能技术设计过程中,应当通过必要的程序输送社会共识和司法价值理念,并有意识地将其融入智能系统的设计中,影响价值偏好、逻辑规则的设置,加强对智能技术应用的法律规制与伦理约束。

  首先,应该建立大数据、算法规则事前评估机制。以严格的程序规范从数据收集、信息挖掘到法编程等一系列人工智能的基础行为,有效保障算法规则的合法性和合理性。评估委员会应当有技术专家、法学专家、社会公众代表等相关人员的参与,如此才能够增强算法规则的透明度与合理性,也能帮助公民个体详细地了解算法决策的运作机制。社会公众在参与评估算法规则设置,了解数据的来源、数据被算法规则使用或排除的标准、各种数据被赋予的权重比例等具体细节后,就可以理性地审视算法规则的公平性与合理性,也更容易接受算法裁决结论,维护司法权威。

  其次,应该建立算法决策审查与检验机制。在智慧司法备受瞩目的今天,不仅要保证社会公众对于算法规则设置的高度参与,也应建立算法决策审查与检验机制来确保关键流程的透明化、可控性与可追溯性。深度的大数据、算法应该经过相关领域专家反复的论证,并注重通过持续的审查与检验确保其有效更新,使算法决策尽可能不受偏见和无意识歧视的影响,以保障其符合司法价值的内涵。

  (二)嵌入案件纠补机制

  在司法活动中运用大数据的同时,必须重视可能建构新的裁判规则的罕见的独特性案例。在既往的司法实践中,有不少通过一个案例改变整个审判规则乃至法律规范的情况(比如孙志刚案),不能让这样的独特性案例淹没在“大数据”的海洋中。

  从实践而言,构建司法模型是以归纳相关案件的共性为前提的。有些案件确实可以用数据模型来标准化,从而简化诉讼程序。但是实践中还有很多复杂的、独特的案件,这些案件的背景因素、案件起因、行为模式、社会影响等有所差异。过分强调数据标准化必然会导致具体案件的差异性、复杂性被忽略。“相当数量的非类型化案件或者案件的非类型化因素,是可能形成的、统一的智能算法实际难以适用的领域;对非类型化案件的司法裁决,人工智能至多具有辅助的作用。某种程度上,正是司法活动的规律、司法判断的特点,客观决定了人工智能在司法领域的作用空间或实际禁区。”〔14〕因此,智能技术在司法裁判系统的应用,既要坚持内容与方法的开放性,也要在技术标准化的框架下谋求个别性、特定性的生存空间,嵌入案件纠补机制,以防止引发个案的不公平、不正义。

  (三)确立算法解释规则

  知情权与抗辩权是公民对抗司法权运行的基本权利,是程序正义的必要构成。但在算法决策中,当事人不知道决策的依据、各种标准的数据加权以及决策遵循的价值判断,而这些都与公民利益切实相关。因此,需要完善算法的解释规则,从制度上防范和化解智能技术的复杂性、机械性和不确定性风险。“当相对人对算法得出的自动化决策存疑时有权请求制定算法及使用算法的数据控制者进行解释说明,甚至可以要求在消除歧视因素后重新进行自动决策。”〔15〕我们可以参考欧盟《一般数据保护条例》第71条之规定,在这一条款中,欧盟明确提出了算法“解释权”(righttoexplanation)概念,即“数据主体有权获得人工干预,表达其观点,获得针对自动化决策的解释并提出异议的权利。”〔16〕

  即便是根据最先进的技术编写的代码或构建的模型也有可能在某些情形下失灵,或者存在与个别案件的不兼容性。如果不赋予那些受算法决策不利影响的当事人寻求人工干预、获得解释的权利,很难保证他们受到公平或公正的对待。“如果我有更正权,那么我就需要看得出错误;如果我有权反对歧视,那么我就需要知道哪些要素被用于决策。要不然,信息不对称就会使这些重要的法律权利变得毫无意义。”〔17〕因此,应当赋予当事人提请“算法解释”的抗辩权,意在让受算法决策影响或支配的当事人有机会在充分知情的情形下主张自己的权利。

  在规范层面,首先,如果公诉机关要使用人工智能辅助量刑制作量刑建议书时,应当明确告知被告人及其辩护人,让他们能够充分了解系统量刑的可能结果,并提出相应的抗辩意见;其次,在审判中,如果法官要使用人工智能辅助量刑系统,也应当明确告知被告人及其辩护人,他们拥有是否使用人工智能辅助量刑系统的决定权;再次,“必须载明所使用的人工智能辅助量刑系统的开发商,在对量刑系统的科学性产生有效怀疑时,可以通过专家辅助人的方式对系统原理进行质询、作证;系统开发商有义务对其量刑系统的工作原理、逻辑和科学性提供证明,以免部分技术精英有意牵引司法运作,企图重塑我国司法权力分布”。〔18〕

  (四)限定技术应用空间

  对智能技术不加节制地过度适用,会在一定程度上挤占司法裁量的空间,有违司法权的本质,同时可能会导致私权利的受损。〔19〕因此,在大数据、算法等智能技术适用于个案时,不但应注意必须通过合法的司法程序,更应该怀有警惕,可以通过对特定事项、特定主体或刑罚等设置禁区的方式来保护相关法益,设置风险的预警、隔离和熔断机制,及时对大数据、人工智能的应用风险做出应对。

  首先,明确智能技术在司法决策中的辅助地位,司法人员应当避免陷入对智能技术、大数据的盲从和依赖。其次,合理限定智能技术的应用空间。第一,考虑案件的复杂程度及量刑幅度。案情比较复杂、量刑可能比较高的案件不宜使用算法决策系统。第二,考虑被告人的意愿。被告人明确表示不得选用算法决策系统的,应尊重被告人的选择。第三,若被告人不认罪或辩护人明确要做无罪辩护的案件,也不宜先使用算法决策系统,以免出现未判先决的情形。第四,需要重点进行价值判断的事项不宜使用算法决策系统。第五,对于技术尚不成熟的领域,智能技术应谨慎介入。

  (五)构建司法商谈机制

  “复杂的程序设计、高深的法律用语及加重的诉讼风险,阻隔了人民群众对司法供给的接近,法官由’慈母‘转化成了’官僚‘,人民的司法正’远离‘人民而去。”〔20〕

  为了避免智慧司法远离人民,加剧司法的霸权主义和官僚主义,司法机关需要与其他司法参与主体、社会公众展开商谈与合作,以保证智慧司法的公平正义、安全可靠。算法黑箱所引发的偏见问题是多维度、多层面、多领域的,这就需要在司法活动中兼顾好私权利的保护与科技创新之间的平衡。因此,“差异和分歧的出现是正常的,关键是要针对差异和分歧建立有效的对话、冲突化解与分歧协商机制。”〔21〕推行司法商谈机制,让社会公众的司法话语理性的进入司法场域,保障公众舆论与司法运行的良性互动,提高司法裁决的公信力就十分的必要。

  司法商谈机制的本质是所有司法参与主体就司法要素、参数等相互交流观点,进而拓展思维视域,最终对法律事实的确定、法律规范的适用及司法裁决结果达成共识。这些不能完全依赖于智能技术,而是需要司法参与主体在司法活动中的通力合作,这也是司法商谈机制的意义所在。

  四、结语

  我们必须清醒地认识到,智能司法时代的来临,其内涵价值并不在于完全取代人类法官的工作,而在于更好地发现司法智慧、司法共识,并有效地使用它们。智能决策的内涵价值也不仅在于优化司法治理,还在于更好地保障公民的司法人权,实现法律面前人人平等。

  因此,智慧司法需要将私权利进行合理的安放,司法效率的获得绝不能以私权利的损害为代价。因为司法活动并不是僵死的规则体系的适用,而是秉承人文关怀进行的判断性智识活动。在推进智慧司法改革进程中,我们需要保持理性的思维,在欣喜地承受智能技术带来的效率、司法能力提升的同时,也要适度规避智能技术所带来的价值偏见、数据鸿沟等风险,以保障智慧司法的健康发展,早日实现司法现代化。本文原载《华东政法大学学报》2019年第4期

【参考文献】
〔 1 〕 崔亚东:《人工智能与司法现代化:“以审判为中心的诉讼制度改革:上海刑事案件智能辅助办案系统”的实践与思考》,上海人民出版社 2019 年版。
〔 2 〕 参见[德]罗伯特 ? 阿列克西:《哈贝马斯的法律商谈理论》,雷磊译,载徐昕、张艳丽主编:《北理法学》(第 3 辑),法律出版社 2013 年版。
〔 3 〕 参见[美]凯西 ? 奥尼尔:《算法霸权:数学杀伤性武器的威胁》,马青玲译,中信出版集团 2018 年版。
〔 4 〕 参见黄京平:《刑事司法人工智能的负面清单》,载《探索与争鸣》2017 年第 10 期。
〔 5 〕 马超等:《大数据分析:中国司法裁判文书上网公开报告》,载《中国法律评论》2016 年第4期。
〔 6 〕 栗峥:《人工智能与事实认定》,来源:https://mp.weixin.qq.com/s/lRcF2Zhel-kV5Gaaf5oGLQ,2019 年 4 月 24 日访问。
〔 7 〕 白建军:《法律大数据时代裁判预测的可能与限度》,载《探索与争鸣》2017 年第 10 期
〔 8 〕 See Danielle Citron, “Technological Due Process” 85 Wash. U. L. Rev 1249 (2008).
〔 9 〕 See Linda J. Skitka,“ Does Automation Bias Decision - making?” 51 Int. J. Human-Computer Studies 991, 992 (1999).
〔10〕 安宝洋、翁建定:《大数据时代网络信息的伦理缺失及应对策略》,载《自然辩证法研究》2015 年第 12 期。
〔11〕 参见郑智航:《网络社会法律治理与技术治理的二元共治》,载《中国法学》2018 年第 2 期。
〔12〕 See Jack M. Balkin,“The Three Laws of Robotics in the Age of Big Data” 78 Ohio State Law Journal. 1217, 1226, 1227 (2017).
〔13〕 参见[美]理查德?A. 波斯纳:《法理学问题》,苏力译,中国政法大学出版社 2002 年版。
〔14〕 黄京平:《刑事司法人工智能的负面清单》,载《探索与争鸣》2017 年第 10 期。
〔15〕 张凌寒:《商业自动化决策的算法解释权研究》,载《法律科学》2018 年第 3 期。
〔16〕 See Recital 71 of GDPR.
〔17〕 See Margot E.Kaminski, “The Right to Explanation, Explained” 34 Berkeley Technology Law Journal 22(2019).
〔18〕 朱体正:《人工智能辅助刑事裁判的不确定性风险及其防范--美国威斯康星州诉卢米斯案的启示》,载《浙江社会科学》2018 年第 6 期。
〔19〕 参见孙道萃:《我国刑事司法智能化的知识解构与应对逻辑》,载《当代法学》2019 年第 3 期。
〔20〕 蔡维力、张爱军:《走出移植西法困境:回归人民司法传统--对我国司法改革的实证评析》,载《法学评论》2009 年第 4 期。
〔21〕 孙柏瑛:《我国公民有序参与:语境、分歧与共识》,载《中国人民大学学报》2009 年第 1 期。
        
        
      首都法学网       北京市高级人民法院       中美法律信息与图书馆论坛(CAFLL)
      国家图书馆       美国法律图书馆学会(AALL)       国家检察官学院
      中国社科院法学所图书馆       国际法律图书馆协会(IALL)       最高人民法院图书馆

主管单位:中国法学会  主办单位:中国法学法律网合作机制 技术支持:北大英华科技有限公司(北大法宝)
电话:010-82668266-152 传真:010-82668268
加入收藏 | 本站首页 | 联系我们
go