分享
人机交互决策下的智慧司法_丁晓东.pdf
下载文档

ID:2582399

大小:1.10MB

页数:11页

格式:PDF

时间:2023-08-01

收藏 分享赚钱
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
人机交互 决策 智慧 司法 丁晓东
文章编号:()-()收稿日期:基金项目:最高人民法院 年度司法研究重大课题()“算法技术的法律规制研究”作者简介:丁晓东,中国人民大学法学院教授、博士生导师,未来法治研究院副院长。人机交互决策下的智慧司法丁晓东(中国人民大学法学院,北京 )摘要 等人工智能技术在多个场景落地,在司法领域却备受争议,其根本原因在于司法具有鲜明的价值判断特征。人工智能司法是一种“规范性科技”支持基础上的司法,而非计算性科技或预测性科技技术本身。人工智能司法在裁判可接受性、信息整全、信息筛选、事实评估等方面有一定优势;人机交互决策不仅可能,而且早已通过各类数据库系统成为现实。不过,人工智能司法却面临规则僵化、人机决策权重如何配置、不同司法层级与不同部门决策趋同、算法黑箱决策等难题。应坚持人工智能司法的辅助性定位,坚持法官与检察官的弥散性决策与主体责任制,允许不同司法机关对人机决策权重进行实验性设置并开展实践探索,坚守基于部门分工与审级分层的制衡决策,促进算法解释的可问责性而非完全公开。智慧司法成功的关键,在于设计符合司法原理的人机交互决策制度。关键词 智慧司法;人工智能;算法;规范性科技;人机交互 :,“”,-,-,;-;-;:;中图分类号:文献标识码:一、问题的提出:人工智能司法运用的特殊性近年来,提升司法领域的信息化与智能化,利用大数据与人工智能技术解决司法难题,已经成为我国司法发展的重要战略。年中共中央办公厅、国务院办公厅印发的 国家信息化发展战略纲要(中办发 号)强调:“实施 科技强检,推进检察工作现代化。建设 智慧法院,提高案件受理、审判、执行、监督等各环节信息化水平,推动执法司法信息公开,促进司法公平正义。”年国务院印发的 新一代人工智能发展规划(国发 号)中提出,应当推进“智慧法庭”建设,“建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法法律科学(西北政法大学学报)年第 期DOI:10.16290/ki.1674-5205.2023.04.011院审判体系和审判能力智能化”。针对中央部署,法院、检察院对智慧司法建设工作进行了积极部署。例如上海市高级人民法院研发了“上海刑事案件智能辅助办案系统”(又称“”系统),尝试解决刑事案件办案中存在的“证据标准适用不统一、办案程序不规范等问题”;贵州省高级人民法院探索建立了“类案类判”机制,对异常审判结果进行预警,辅助法官实现类似案件法律适用的统一。随着 等人工智能技术的突破,人工智能司法问题进一步引发了人们的关注。美国明尼苏达州大学法学院的随机盲测实验表明,-通过了其法学院的所有真实考试,尽管其分数不是太高。如果人工智能技术可以比人类做得更好,那么人工智能是否真的具有替代或者至少辅助法官或检察官的可能?事实上,哥伦比亚的一名法官()已经利用 辅助审判,并明确表示判决书中包含了其输入 的问答结果;该法官认为,虽然不能代替法官进行判断,但可以利用人工智能“扩展所通过裁决的论点”;在判决书中,该法官说明了其对于 回答的认同,并且提供了自己的法律论据。这一例证表明,人工智能司法的实践应用价值正在不断提高。虽然如此,人工智能司法却面临重重质疑。很多研究表明,人工智能司法可能面临种种问题:人工智能可能带来错误判决,与司法追求的公平正义价值并不契合;人工智能可能导致裁判规则的僵化,无法适应复杂案件的判决;人工智能可能导致算法黑箱和司法的不透明性;人工智能可能剥夺人们对于司法的亲历感,损害司法权威。相比人工智能在电商、资讯、自动驾驶、医疗等领域的应用,人工智能在司法领域的应用一直存在较大争议。在实践中,法官与检察官也对人工智能辅助司法的机制存在众多困惑。如,当人工智能对于某个法律问题给出自己的答案,此时人类法官或检察官是否必须参照?当人类法官或检察官与人工智能给出的答案不一致时,此时是否需要进行解释说明,甚至需要提交审委会讨论?对于人工智能的算法决策,是否应当要求将算法对当事人和法官或检察官完全公开?如果不同司法机关和不同层级法院都配备了同一套人工智能系统,司法机关之间相互配合与制约的制度设计和审级制度设计是否将变得没有意义?本文的研究建立在已有研究 的基础上,但将更多聚焦人工智能司法的特殊性,并在分析人工智能司法人机交互决策方面问题的基础上,分析人工智能辅助司法可能存在的隐患,并尝试对智慧时代的人机交互司法决策制度进行重构。二、作为规范性技术的人工智能司法现代法治发展中,一直存在用机器替代法官或检察官的想象。德国社会学家马克思韦伯曾经将现代社会的司法比喻为自动售货:“现代的法官是自动售货机,民众投进去的是诉状和诉讼费,吐出来的是判决和从法典上抄下来的理由。”规制理论中经典的“传送带理论()”也认为法治的核心要义就是将立法者的意志“传送”给行政规制机构。而当法官宣誓就职或描述自身职业时,也不时会将自己比喻人机交互决策下的智慧司法 张军:智慧检务建设要聚焦科学化智能化人性化,检察日报 年 月 日,第 版;周强:加快智慧法院建设推进审判体系和审判能力现代化,人民法院报 年 月 日版,第 版。严剑漪:揭秘“工程”:法院未来的人工智能图景,上海人大月刊 年第 期,第 页。另可参见崔亚东:司法科技梦:上海刑事案件智能辅助办案系统的实践与思考,人民法治 年 期,第 页。贵州省高级人民法院:探索“类案类判”机制 确保法律适用统一,人民法院报 年 月 日,第 版。,:,最后访问。,:,最后访问。西方学术界早在 世纪 年代就已经有很多文献对这些问题进行了分析。-,();,?,();,:,()中文学界的研究,参见马长山:司法人工智能的重塑效应及其限度,法学研究 年第 期,第 页;刘艳红:人工智能技术在智慧法院建设中的实践运用与前景展望,比较法研究 年第 期,第 页。德 马克思韦伯:论经济与社会中的法律,张乃根译,中国大百科全书出版社 年版,第 页。,()为严格遵守法律的机器,在审判活动中排除任何个人感情色彩。上述理论或者比喻都隐含了某种法治的想象:用机器实现更好的法治,排除法治中的人为判断或价值判断。但法理学的研究表明,司法决策本质上是一种规范性活动,无论是人类还是人工智能法官或检察官,都不可避免需要进行价值判断。.法律解释必然伴随价值判断。无论是人类还是人工智能法官或检察官,都需要在其解释活动或程序中确定,文义解释、历史解释、体系解释、目的解释等诸种解释方法中何者具有优先性。从司法的基础理论来看,法律解释方法中并没有必然的优先性方法,例如字面解释可能有利于文意的精确性,但未必有利于立法意图和法律目的的实现,也未必符合当下公众的预期。而且即使选择了某种解释方法,也还需要进一步对某种解释方法进行价值判断。例如字面解释是采取通用词典的解释,还是法律类词典解释?立法解释是以起草者、批准者还是更广义的人民意志为准?目的解释是以立法时的政策目的还是以当下的政策目的为准?体系解释应当着重某个重点条文还是应当着重法律的整体性分析?.法律推理必然伴随价值判断。()就演绎推理来说,演绎推理的有效性依赖于推理的大前提与小前提。例如对于“消费者有权获得多倍赔偿”这样一个大前提,司法者需要进行判断,消费者权益保护法 与 食品安全法 中对于消费者的界定是否相同?对于职业索赔人是否属于消费者这个小前提,法律推理也要进一步判断。()归纳推理亦是如此。归纳推理的本质在于基于过往经验对未来进行预测,而未来的决策却依赖于人的判断与行动。即使人类或人工智能司法通过归纳得出结论,过去的某类案件判决都类似,也不能得出未来就应该如此判决的结论。中国很多法院曾经一度将职业索赔人视为消费者,但后来逐渐改变了立场。美国法院则曾经在所有的判决中都认可了白人和黑人的种族隔离符合美国宪法,但最终却通过判决推翻了“隔离且平等()”的教义。()类比推理也存在与归纳推理类似的问题。人工智能主要通过类比推理来寻找相似案件,从而为司法提供决策依据或参考,但基于人工智能的类比推理无法离开实质性的价值判断。例如,职业索赔人是否属于消费者?偶尔参与知假买假活动的个体是否属于消费者或职业索赔人?对于此类问题,无论是人类还是人工智能司法要作出妥当判断,都必须依赖价值判断。从司法价值判断的属性出发,就可以理解人工智能司法应用的特殊性。目前,人工智能系统大致可以分为两类:一类是传统上基于规则的专家系统(),另一类则是近十几年来兴起的机器学习等预测性算法。专家系统一般由综合数据库、知识库和推理机三个主要部分组成。世界范围内的综合数据库包含求解问题的事实和断言;知识库包含所有用“如果:前提,于是:结果”形式表达的知识规则;推理机(又称规则解释器)的任务是运用控制策略找到可以应用的规则。预测性算法主要通过海量数据的训练,不断增加算法决策在概率上的准确性。例如,通过人类监督学习()和强化(-)来改进其反馈,通过贝叶斯等算法来增强其概率上的正确性。在当前人工智能所运用的场景中,很多领域都具有计算性或预测性特征。例如商业个性化推荐、内容生成、自动驾驶、智慧医疗,这些领域的人工智能之所以能替代人类,主要是因为人工智能在这些领域可以比人类提供更为精准的计算或预测。甚至在律所等法律服务业中,人工智能也可以实现更为准确的预测。但人工智能辅助司法审判与这两类人工智能决策都有不同。人工智能司法的特殊性在于它是一种规范性技术,而不是计算性技术或预测性技术。这种规范性技术更接近于莱西格()教授所提出的“代码即法律”()的判断,或者荷兰蒂法律科学(西北政法大学学报)年第 期 例如美国最高法院的罗伯特大法官就职时宣称,“法官就像裁判员裁判员不制定规则;他们适用规则,法官是一个有限的角色”。罗伯特法官()的此类言论使得有的评论者将其比喻为机器人法官(),参见 -,!,(,),:-,年 月 日访问。对于机器人法官的想象,参见 ,-(),()对于类比推理中无可避免的价值判断。,()贝叶斯算法通过对相关概率的归纳而对某件事情的算法进行测算。其一般原理是,对所谓“条件概率”()进行测算,如在事件 发生的情况下,事件 发生的概率,用 ()来表示。其计算公式为 ()()()。,:,尔堡大学的库普斯()教授提出的“规范性科技”()概念,其本质在于司法决策权从人类司法者转移到代码或代码设计者。三、人工智能辅助审判的可能性与现实性如果人工智能并不能增强司法裁判的准确性,那为何还要在司法中引入人工智能?人工智能具有黑箱决策的性质,将司法决策权转移到代码或程序员的手中,人类的司法决策权将被剥夺或减少,司法审判中的问责制将被削弱。而一旦人工智能审判产生错误判决,就可能误导或影响法官或检察官。仅从准确性或客观性的角度出发,人工智能无法给司法带来任何增量,即使只使用人工智能进行辅助,也只会给法官或检察官带来很大干扰,削弱司法体制的正当性基础。为了理解人工智能司法的可能性,还需要从司法判决的可接受性、信息整全性、信息筛选效率、社会效果等角度分析人工智能的比较优势。.人工智能司法可能具有更高的可接受性。关于人工智能与人类司法者的比较,尤金沃洛克()教授曾经指出,应当以可接受性与说服性的标准进行比较,而不是以司法的正确性标准或客观性标准进行比较。因为人们对于何为法律的正确答案往往存在争论,很难有一个客观的标准来比较哪种判断更为正确或客观。但同时,人们可以比较何种司法判断和法律说理更容易为人们所接受。当人工智能给出的司法判断优于平均水平的司法者时,能产出比平均水平的司法者更能被接受与更具说服力的裁判文书时,此时就可以认为人工智能司法通过了图灵测试(),甚至可以认为人工智能优于法官或检察官。在对机器具有较高信任程度和文化背景的国家,这类可接受性更为明显。研究表明,很多国家和地区的普通人更为信任机器审判,认为机器审判可能更为准确公正,特别是更不容易腐败。这类观点可能较为简单甚至幼稚,但对于信任机器审判的当事人来说,可能更容易接受人工智能司法作出的判决。.人工智能能够提供更为整全性的信息。人工智能系统虽然不能提供价值性判断,但对于相关法律法规与案例的系统化汇集,却可以拓展人类司

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开