菜单

关于法律人工智能在中国运用前景的若干思考,裁判人工智能化的实践需求及其中国式任务利豪棋牌游戏平台:

2020年3月27日 - 利豪棋牌游戏平台

2018年8月29日 ( 正文字号: 小 中 大 ) 文章标签:法的社会作用
法律调整及其机制 司法制度 [ 导语 ]
计算机科学在与法学结合的道路上,一直试图将司法流程中的裁判环节以计算机模型化的方式表述出来。只是已有的不成功模型说明了将法官的推理裁判过程降格为简单、可重复、固定、先验但同时又需包罗万象的逻辑模型,可能是个片面误导性的做法。因此,在司法裁判人工智能化的研发进程中,需要斟酌的不仅是技术上的障碍,还应考虑法官的接受度和实际效用。这虽是一个极其复杂而困难的问题,但却是裁判人工智能化应用研究的起点。[
内容摘要 ]
笔者将会继续结合国家对于整个司法结构与功能的预设,来讨论人工智能切入司法裁判的需求背景以及可能出现的发展方向。[
内容 ]

国家2011协同创新研究计划“司法文明协同创新中心”、四川大学法学院教授,法学博士。

近些年来,“人工智能”的话题持续发酵。尤其是在互联网、大数据、脑科学等新理论技术的驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同等新特征。相关学科发展、理论建模、技术创新正在引发链式突破,整体推动各领域从数字化、网络化向智能化加速跃升。在国务院办公厅印发的《国家信息化发展战略纲要》中,明确提出将“智慧法院”的建设列入国家信息化发展战略,过去的2016年中,“智慧法院”的相关工作部署已紧锣密鼓地推开,[1]2017年4月20日,最高人民法院印发《关于加快建设智慧法院的意见》,提出以信息化促进审判体系和审判能力现代化的总体要求。在最高人民法院的强力推动下,地方各级法院也纷纷启动了“智慧法院”的探索工作。不过一方面,虽然法院一直在试图将人工智能引入办案系统,但如何根据现有基础研究的成果,技术研发的不同特点,寻求智能系统切入司法领域的突破口,仍是司法实务界和法学研究领域尚在探索的前沿问题;另一方面,新闻舆论却又总喜欢用“机器参与司法审判”“机器人法官”[2]等字眼来概括和描述目前司法智能化工作,极易引发公众对司法裁判人工智能化这一问题的认知偏差。事实上,以现在人工智能处理司法过程问题的技术水平来看,讨论人工智能是否有取代法官裁判的可能性,并没有根据也没有必要。

法律人工智能在我国司法界的运用方兴未艾,开始初步形成了信息的电子数据化、办案辅助系统的智能化、实体裁判的预测与监督系统以及统一、电子化的证据标准等法律人工智能形式。然而,法律人工智能存在一定的现实困境。从数据层面看,当下的法律数据不充分、不真实、不客观且结构化不足。从算法层面看,法律人工智能所使用的算法隐秘且低效。从人才层面看,法律界、人工智能界互有疏离、隔阂。未来,我们应认识到法律人工智能在我国运用的长期性与艰巨性,在明确法律人工智能应定位于辅助角色的同时,在技术层面上改进算法并培养法学与计算机科学知识相融合的人才。

笔者认为有必要区分两个不同面向的问题,即裁判人工智能化的可能性,以及裁判人工智能化的必要性。这两个不同问题,其实是代表了两种不同取向的研究,即以学术研究为导向和以应用为导向的人工智能化路线。前者要证明的是人工智能可以或者可能实现法官的推理,甚至哪怕只是推理的一个片段。其目标似乎只是想看看智能技术在与法学结合的道路上能走多远,它可以是个人的、主观的;但如果我们的目标是创造出一个可操作的,具有实用价值的系统,那么仅以上述学术研究为导向的方法论可能就不够了。因为这并非纯粹是一个自由选择或是个人偏好的问题,而是需要决定哪一种技术方法可能会最大限度地贴合司法实践中的操作。法官在判案时是否真的需要人工智能的辅助?系统实际使用者的真实需求又是什么?这是一个极其复杂而困难的问题,但也应是裁判人工智能化应用研究的起点。在笔者的另一篇文章已集中讨论了机器在模拟司法裁判上的技术缺陷和问题,[3]笔者将会继续结合国家对于整个司法结构与功能的预设,来讨论人工智能切入司法裁判的需求背景以及可能出现的发展方向。

目次

一、裁判人工智能化的需求背景

一、人工智能方兴未艾的运用

“决策辅助”的先决条件

二、法律人工智能的现实困境

司法裁判是一项高度复杂的工作,无数的法学家们在这个领域倾注着脑力竞赛。在司法领域的核心词汇一般如,“正义”“合理审慎”以及“犯罪意图”等,都来自于人们的日常生活。而且,在法律推理的过程中,还涵盖了多种认知技能,如评判事实、条文解读、类比推理以及辩证思考。除了复杂性以外,司法裁判的另一特点就是其社会影响力。个案中涉及的利益、情感以及最终的裁判结果,都会影响到整个社会对司法工作人员的整体印象,以及社会对司法系统的看法。

三、中国应该如何运用法律人工智能

司法活动的这些特点表明对它的研究和应用需采取谨慎的态度。虽然已有不少人工智能的研发目标定位在“决策辅助”,即由计算机自动组织和协调多个模型的运行和存取,处理数据库中的大量数据,提高数据加工深度,从而达到辅助使用者决策活动目的。但若仔细推敲,之所以使用决策辅助,除了该系统本身技术可靠外,还应产生“决策辅助”的需求,这包括以下两个条件:

一、人工智能方兴未艾的运用

1.使用者清楚地意识到有寻求“决策辅助”的必要决策环境复杂

在Alphago战胜围棋高手李世石、柯洁之后,人工智能进一步成为当下热议的话题。正如我们所看到的那样,人工智能在人类社会活动的很多领域已开始得到较多运用,诸多互联网企业和国家对之也是高度关注。[1]在此背景下,中外学界开始讨论、探索人工智能在法律领域中的运用问题。

因专业知识不足等多种原因难以形成决策。

据BBC报道,一种名叫Case Cruncher
Alpha的法律人工智能“机器律师”与伦敦的100名律师就“基于数百个PPI错误销售案例事实来判断索赔与否”的法律问题展开比赛,结果“机器律师”法律AI以86.6%的准确率领先于律师的66.3%。[2]弗吉利亚理工大学发现分析中心的学者通过数据驱动结构的机器学习分析了美国最高法院以往做出的裁判,并以此预测未来的判决。其AI通过对裁判文本的仔细分析,计算每个在裁判中出现的与争点相关的语词,并权衡其在争点中的权重,进而透视每个大法官对争点关注的强弱程度,再结合大法官的投票行为,挖掘文字表述的实际意义。最终,AI不仅能够更好地发现不同大法官的裁判立场与观点,预测其未来投票趋势,还可以更清楚地表明谁是裁判决策中的摇摆者与妥协者,甚至大法官们在哪些问题上更容易妥协也一清二楚。基于此,AI可以预测最高法院未来的裁判,其准确率达到了79.46%。[3]此外,美国芝加哥的伊利诺理工大学与南德克萨斯法学院利用1791至2015年的美国最高法院数据库,合作开发了一种算法,该算法再现了从1816年到2015年美国最高法院法官的28000项决定和240000次投票,正确率分别达到70.2%和71.9%,这高于法学家们66%的预测准确率。[4]Lex
Machina公司在知识产权法律领域也通过人工智能预测裁判结果。[5]有国外学者甚至认为,人工智能在预测案件判决结果上已经超越了人类专家。[6]

2.使用者有从该“决策辅助”系统获取信息支持的强烈动因其实日常生活中的多数情况下,我们都在不断地决策,但真正需要寻求决策辅助情形并不多见。例如,我们都有过因出门担心下雨而犹豫是否需要带伞的经历,在自己没有专业气象知识,无法通过观测天象来预测的前提下,便会寻求天气预报的帮助以辅助决策。但请注意,这只是“决策辅助”存在的必要条件。因为假如我们选择开车出行,且上下车的过程都可以排除下雨的干扰,那么即使今天真的会下雨,我们也不太会关心天气预报中预测下雨概率的准确性,此为上述的动因条件。

上述事例显示,在域外,随着人工智能与大数据时代的到来,法学家与其他领域的人士已开始探讨如何将人工智能运用于法律裁判领域,但这其实并不新鲜,计算机甫一普及,美国法学界就开始讨论法律推理与思维是否可被机器所取代的问题。[7]20世纪70年代,Anthony
D.Amato提出,人类法官是否以及应该被机器法官所取代,以消除法律的不确定性。[8]但这一设想是否正确以及可行在美国学术界一直争论不休,有时还被上升至哲学层面讨论。如J.C
Smith指出,“电脑可以/应该更换法官”的见解是基于笛卡尔的“灵体二元论”和“莱布尼茨的谬误”,二者犯了智力可以独立于人体而存在和所有的人类思想都可以通过一种通用的语言来表达的错误。[9]

法官判案是否需要“决策辅助”

值得注意的是,目前法律界对人工智能的运用已不再局限于对裁判的预测,在其他领域也能看见其活跃的身影。汤森路透公司已将IBM的认知计算系统——Watson系统用于法学学术研究,Ross
Intelligence亦将IBM
Watson的Q&A技术运用到破产法律的研究中,通过对法律文件的学习,其能自行识别出法律信息的重要程度,从而提高了律师案例检索的效率。[10]在一般的法律服务与活动领域,人工智能更是显示出了自身的巨大优势。在民事法律领域,很多公司已开始运用人工智能审查合同,如摩根大通开发出的商业贷款合同审查系统几秒钟就能完成曾经需要用36万小时才能完成的信贷审查工作[11]。在刑事法律领域,人工智能主要运用于一般的警务活动、羁押必要性审查以及量刑后假释等活动中。在警务活动方面,加州圣克鲁斯大数据创新企业Predpol所研发的犯罪预测软件,能够通过对犯罪历史数据的分析,逐个小时计算出哪里最可能发生犯罪活动。从理论上来说,警方只需经常在这些地区进行巡逻就可以提前阻止犯罪,圣克鲁斯、洛杉矶和亚特兰大等使用该软件的城市都降低了犯罪率。[12]在保释与假释决定中,美国一些州法庭使用算法来确定被告的“风险程度”:从这个人会再次犯罪的可能性,到被告会如期出庭的可能性等各个因素,进而决定是否对其保释或假释。[13]此外,法律人工智能还被用于法庭量刑,如美国的一些州正在使用“风险评估工具”(Correctional
Offender Management Profiling for Alternative Sanctions, or
COMPAS)来确定刑期。[14]这种“风险评估工具”是在参考了数十年的量刑案例后所设计的一种算法,该算法结合了十几个参数,进而转化为被告在一定时期内重新犯罪的可能性。[15]现在,“法官正使用这些法律人工智能量刑系统帮助他们作出量刑决定,尽管法官仍保有其自由裁量权,但这种法律人工智能系统对实际量刑决策的影响正在扩大”。[16]

我们同样可以通过这两个条件来观察人工智能“辅助决策系统”在司法裁判领域的境地。对于第一个条件,司法裁判中的确会产生复杂的环境,而且作为解决社会纠纷主体的司法裁判,往往也不可避免地会成为社会舆论的焦点。不过需要思考的是,究竟是什么原因使法官难以形成决策,是因为专业知识的不足,还是其他的原因?如果以计算机系统取代或辅助法官决策,能否解决上述问题?

面对法律人工智能的迅猛发展与广泛运用,域外理论界出现了两种明显存在分野的观点。部分学者对法律人工智能的使用前景持相对乐观的态度,认为法律人工智能在当下与未来将获得更广泛的使用,但这取决于算法的进一步优化、计算机硬件的进一步提升以及更为物美价廉的法律人工智能服务的出现。[17]还有部分学者则没有这么乐观,反而在他们看来,由于目前能够获取的数据可能并不可靠、算法标准模糊且未达到公开透明程度,盲目信任法律人工智能会产生如隐性歧视等新问题、新冲突。[18]近日,一起由美国威斯康星州法院使用COMPAS系统智能量刑的案件裁判结果在美国社会引发了激烈的讨论,其中的算法歧视问题引人深思。在威斯康星州诉卢米斯一案(Wisconsin
v.Loomis)中,被告埃里克·卢米斯(Eric
Loomis)因偷窃枪击者抛弃的汽车而被警察误当作枪击者予以逮捕,鉴于其存在偷盗和拒捕行为,卢米斯最终被判有罪并服刑6年,这是因为COMPAS系统通过对卢米斯回答的一系列问题的测算,将其危险等级认定为“高风险”。卢米斯提起上诉,但威斯康星州最高法院支持了下级法院的裁决,认为COMPAS系统的算法具有中立性和客观性。[19]2017年6月,美国联邦最高法院拒绝受理卢米斯的申诉要求,实际上维持了威斯康星州法院支持原判决有效的裁决。[20]

一般说来,法官在形成决策前,大致会经历下列4个步骤的过程:确定裁判的目标;罗列可实现目标的裁判方法;对可能采取的每一种裁判方法的后果加以评估;作出最能实现目标的选择。其中第一和第三个步骤,往往是司法工作中的实践难题,也是法官最需要寻求决策支持的,但也恰是人工智能“决策辅助系统”最难介入的部分。很多案件之所以难以决策,并非仅仅是因为法律上的疑难,还可能包括社会影响大、公众关注度高、当事人请托关系、领导批示或者“胡搅蛮缠”以上访相威胁等,即案件的困难虽然并非源于法律本身的理解与适用,但仍然会成为实际办案法官眼中的“疑难案件”。

那么,在中国,法律人工智能又呈现出何种景象,社会各界对其前景抱以怎样的希冀呢?

以“泸州继承案”“许霆案”等民意案件为例,若从阿列克西关于“内部证成”的观点来看,法院的判决都具有充分的事实依据和法律依据,没有明显的迹象表明法院的审判过程和判决结果出现了差错。但在法院外部,人们质疑法院判决的理由明显超出了现行法律制度的约束范围:当人们需要对司法裁判评头论足的时候,往往会借助于一个“更高”的标准,这些标准经常会化身为一些“法理原理”,如“公序良俗”“公共利益”等。以“道德”的名义宣称判决违背法理,不符合法的道德品性等论调,突出显示阿列克西的“外部证成”的性质。这种话语体系在不断质疑和责问法院工作和司法制度的过程中展现出强大威力,使得人民群众对法院的信任度以及法院的满意度也随之降低,同时也使得法官越发难以形成决策。对于此类社会关注度大的案件,如何界定“社会效果”便是法官在形成裁判之前所要面对的一个难题。[4]“社会效果”的评价体系有着许多概念上的困难:“一是哪些是社会效果——范围不确定导致法律效力规则多极化。二是谁来评价社会效果——主体不确定导致司法四面招架。三是如何比较两个社会效果的轻重缓急——标准不确定导致人为操作裁判。四是社会效果和法律效果冲突时如何取舍——取舍原则不确定导致法律妥协。”[5]正因为评判案件的标准是一个相对开放的领域,因此法官才不得不相当多地依赖其他非法律的材料和信息。

从理论界来看,法律人工智能受到了广泛关注,并展开了初步研究与讨论,其大致可分为以下几类:一是关注人工智能作为新兴工具对既有法学理论所带来的问题与挑战。《法律科学》在2017年第5期集中刊发的五篇与法律人工智能相关的问题所讨论的主题,就是这种研究路向的典型代表。[21]值得注意的是,郑戈还展望了人工智能与法律的未来,认为“‘现代’法律体系能否成功应对人工智能所带来的新的风险和不确定性,能否在人工智能时代继续维持秩序与变革、守护与创新、价值与事实之间的动态平衡,这是今天的法律人所必须面对的紧迫问题”。[22]二是分析人工智能运用中所产生的信息公开和透明化问题。例如,胡凌对法律是否以及如何介入人工智能算法的运作,特别是在广泛影响大众利益的情形中,如何设计信息披露等监管机制、干预某类代码化规则的系统性歧视等展开了讨论。[23]三是讨论人工智能在法律领域的运用,尤其是有关中国智慧法院建设的问题。例如,吴习彧认为,人工智能难以胜任知识覆盖面大、技术含量高的司法工作,更可行的做法应是一种人机结合的司法裁判智能化辅助系统。[24]何帆则认为,现在谈机器人法官是无稽之谈,法官“需要的智慧和智能,第一要务还是辅助和服务法官办案,而不是替代司法裁决、淘汰办案法官。”[25]此外,还有学者从司法权特点的角度反思了智慧法院的建设,认为“工具理性对司法意义的消解,智慧管理对司法自主的削弱,智慧应用对司法平等的分化以及服务外包对司法公信的威胁,是智慧法院存在的法理困境”。[26]

当裁判目标不确定以及裁判结果评价标准模糊的情况下,法官面对的问题是裁判的成本和风险极大化困境:一方面,法官需要提前进行大量的思考,对信息进行筛选和评估;另一方面,在裁判作出后,所有的结果便转化为依附于法官个人身上的高强度压力。也就是说,法官决策前后负担都很高。而这种决策模式的特点就是极不稳定,除非决策成本的产生实际上是有意义的,并且决策最后会以很好的方式结尾,否则这种模式下的个体或机构就非常容易崩溃。[6]

概括而言,理论界有关法律人工智能的研究虽然热闹,但仍处于开拓阶段,尚缺乏对法律人工智能运用现状与未来的深刻把握与思考,至于所提出的关于法律人工智能如何运用的建议,也只是方向性的。

寻求决策辅助的途径

相较于理论界,实务界对法律人工智能可能有着更多的期待,并采取很多实际行动。

当法官意识到存在决策困难或风险之后,接下来问题便是如何寻求决策辅助。由于涉及决策责任的最终承担,故寻求决策辅助的方式和途径也是值得仔细考虑的。只有对法官裁判行为背后隐蔽的秩序力量保持足够敏锐,准确地理解法官“在A与B两种行为选择之间的偏好,了解这些偏好究竟植根于何处”,[7]才不至于在探讨人工智能究竟能为法官决策提供何种辅助的问题上毫无头绪。

在政策层面,国务院发布于2017年7月《新一代人工智能发展规划》,确立了我国新一代人工智能发展“三步走”战略目标,力争到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心;[27]最高人民法院与最高人民检察院提出了“智慧法院”与“智慧检务”建设的行动规划;[28]公安部与司法部也有类似大数据与信息化建设的指南。[29]因应于此,地方司法机关尤其法院的人工智能与“智慧法院”建设方兴未艾,北京、上海、浙江、江苏、广东、贵州等均推出了名称不同的人工智能法律工具,如北京法院的“睿法官”智能研判系统、上海法院的“206”刑事案件智能辅助办案系统,苏州法院还形成了“智慧审判苏州模式”。纵观当前实践,法院系统在“智慧法院”建设中所使用的人工智能主要有以下几种形式:

一份法院判决不仅是承办法官依据显性规则裁判的结果,同时也是其依据非正式隐性规则裁判的结果,而后者从来就不会明文写入判决的依据之中。[8]所以对于期望对裁判过程提供智能化辅助的研究来说,就有必要先辨识办案法官个人在某个具体案件情境中和法院系统层级中的能力范围,并试图理解该情境和系统会如何对其个人产生影响。社会心理学的大量资料能佐证,在特定情境下,来自外界的系统性力量会远远胜于法官个体本身的努力,并且这种系统所展现出来的情境力量,左右个体行为方式的能力远超出我们所想。很多时候,我们只是简单地把某些错案件中的法官追责定性为“失职”或“贪污、腐败”,却会忽略让这些法官办“错”案背后的更大动力,一种由更复杂、更强大的动力所创造出来的情境性力量。

一是信息的电子化、数据化,即通过技术手段,将语音、纸质化卷宗文字等非电子化信息转换为可复制、可转换的电子数据,从而减轻司法机关的工作负担,为进一步应用打下基础。例如,最高人民法院、上海高院、广州中院、苏州中院等超过100家法院就应用了科大讯飞公司所研发的智慧法院庭审系统。又如,最高人民法院委托苏州中院研发的庭审语音识别系统,可以将语音自动转化为文字,并能自动区分庭审发言对象及发言内容,法官、当事人和其他参与人均能实时看见转录文字。[30]在系统试用中,语音识别正确率已达到90%以上,书记员只需进行少量修改即可实现庭审的完整记录。经对比测试,庭审时间平均缩短20%~30%,复杂庭审时间缩短超过50%,庭审笔录的完整度达到100%。[31]

当法官意识到决策风险的存在时,便可能会开始转化到另一种特殊的思考方式:尽量避免犯错,努力使其作出选择时的负担以及犯错误的可能性最小化。“司法者和任何公职人员一样,乐于使用最方便的程序处理事务。在有法条或成例可循的情形下,故意另寻蹊径为其判决另找依据,不仅自找麻烦,而且可能导致上控,使自己受到责难。”[9]

二是办案辅助系统的智能化,即指通过智能化手段,实现裁判文书中如“当事人信息”、“诉讼请求”等固定格式内容的一键生成,缩短起草文书时间,辅助法官提高办案质效。[32]例如河北高院历时近一年组织研发了“智慧审判支持”系统,帮助法官对电子卷宗进行文档化编辑,并按法律要素实现结构化管理,自动引用、排列、归纳和分析全要素案件数据,辅助法官完成文书的撰写。在河北194个法院,有6961名法官应用,截至2017年5月31日,共处理案件11.1万件,辅助生成78.4万份文书。[33]

常见的处理决策负担方式便是委托,将该决定委托其他人去处理。例如日常生活中,人们可能会依靠配偶或朋友来代替他们决策,或挑选一个制度化的安排,通过该制度安排,其中的某些决定就可以由此前已经设立好的机构作出。委托是一种能够减轻委托人在作最后决策之前所承受负担的一种策略。当然这种减轻是通过将负担转移到委托人身上来达到目的。而对于委托人来说,或拥有特别的信息,或缺乏相关的偏见或动机方面的问题,又或者他们不介意对拟议中的决策承担责任。

三是实体裁判的预测与监督。预测指的是人工智能系统对海量裁判文书进行情节特征的自动提取和判决结果的智能学习,建立具体案件裁判模型,根据法官点选的关键词或提供的事实、情节,自动统计、实时展示同类案件裁判情况,预测正在审理案件的实体裁判,同时推送更为精准的相似案例,供法官参考。北京法院的“睿法官”系统便是依托北京三级法院统一的审判信息资源库,运用大数据与云计算充分挖掘分析数据资源,并依托法律规则库和语义分析模型,在法官办案过程中自动推送案情分析、法律条款、相似案例、判决参考等信息,为法官判案提供统一、全面的审理规范和办案指引。[34]所谓监督,是指对于“同判度”较高的类案,基于预测性判断,对法官制作的裁判文书判决结果与之发生的重大偏离,系统自动预警,从而防止裁判尺度出现重大偏离。如苏州法院的人工智能系统不仅能够统计类案的裁判模式与结果,还能对当下案件根据历史裁判模型模拟裁判,如果法官制作的裁判文书判决结果与之发生重大偏离,系统予以自动预警,方便院庭长行使审判监督管理职权。[35]

但什么时候委托,以及委托给谁,是需要斟酌的问题。因为如果委托决策的对象是一个值得“信赖”的受托人或受托机构时,那么委托行为就几乎没有什么压力,甚至可以给最后的决策带来自信。但如果受托人和委托人存在某种牵连关系,甚至被证明是倾向于犯错误的,那么其他的策略化行为就会取而代之。

四是建立统一的、电子化的证据标准,即通过法律大数据总结案件办理经验,并将其内嵌于公检法三机关的数据化办案系统中,用以规范公、检、法机关与人员的司法行为。[36]

实践中回避决策风险的一种典型方式便是“请示”。[10]“因为一个人在一个群体中争取获得承认的努力大部分是由该群体中高度受尊敬的成员的赞同而得以推动的。因为他们对于他的赞同意见影响了其他人的意见,因而具有一种增值作用。”[11]虽然在现行的宪法、人民法院组织法和三大诉讼法中,都只规定了上级法院对下级法院的监督权,但作为司法实践中“土生土长”的习惯工作方式却因此享有滋生的土壤。[12]法官遇到“拿不准”的问题时,就会向审判长以及合议庭其他法官汇报,包括向副庭长或庭长以及庭务会请示。当在业务庭一级不能“拿捏”时,案件就会向副院长或院长汇报,进而纳入到审判委员会集体讨论。[13]有些问题审判委员会也讨论不出结果,或者虽有结论,但为慎重起见,会向上级法院请示汇报。

例如,上海公检法机关从统一证据标准、制定证据规则、构建证据模型入手构建的刑事案件智能辅助办案系统。[37]由于类似办案系统的目的在于规范司法行为,似乎还不能算是完全的法律人工智能。

相应地,法官向“决策辅助系统”寻求信息支持的动力不大的关键原因也就在于,“决策辅助系统”其实并没有帮助法官脱离责任承担的主体范围,法官也不可能通过主张自己是使用了“决策辅助系统”而免除将来可能要承担的裁判风险。

二、人工智能与司法裁量权

司法裁判人工智能化另一个值得斟酌的主题是与司法裁判裁量权的对接。该主题的问题又可以细化为两个小问题:计算机程序要求简单化、明晰化的设计属性与法官的裁量权如何协调;使用计算机程序规范法官的裁量权是否合适。

计算机程序与法官裁量权的对接问题

相关文章

发表评论

电子邮件地址不会被公开。 必填项已用*标注

网站地图xml地图