人工智能
司法
解释性
困境
及其
周媛
*周媛,上海交通大学凯原法学院博士研究生;张晓君,西南政法大学国际法学院教授。本文为国家社会科学基金项目“城市更新中促进绿色建筑发展法律机制研究”(2 1 B F X 1 3 6)的阶段性成果。1 如上海刑事案件智能审判系统、北京“睿法官”审判辅助系统、河北“智审”审判系统和浙江“金融智慧庭审平台”等。参见聂友伦:人工智能司法的三重矛盾,载 浙江工商大学学报2 0 2 2年第2期。N o.2,2 0 2 3p p.3 2 0人工智能司法的可解释性困境及其纾解周 媛 张晓君*内容提要:加强对人工智能司法发展及风险的研究是时代课题,其中人工智能司法的可解释性困境尤为关键。人工智能司法可解释性指的是司法决策或行为的可理解与透明性,涉及基础数据、目标任务、算法模型以及人的认知这四类关键要素。不可解释困境主要是由数据失效、算法黑箱、智能技术局限、决策程序和价值缺失等因素所致。但是,人工智能司法的不可解释困境其实是一个伪命题,可解释性具备认知层面和制度层面两方面基础。纾解困境的具体策略包括:构建司法信息公开共享制度,提高有用数据的甄别与利用效率;从软硬法结合视角建构司法系统的运行标准与制度规则;从全过程视角强化主体之间的协同治理;通过指导性案例和司法解释赋权法官的司法解释空间,提高法律解释技术;强化交叉学科人才建设,提高对人工智能司法决策模型的引领;发挥法官的自律与能动性,实现司法智能决策的人机协同。未来,不仅需要把握司法价值与技术理性的平衡,还需考虑人工智能对司法的差异化介入,推动人工智能司法战略目标实现。关键词:人工智能 司法 算法 可解释性 协同治理一、问题的提出党的二十大报告明确提出:“构建新一代信息技术、人工智能、生物技术、新能源、新材料、高端装备、绿色环保等一批新的增长引擎。”自2 0 1 5年起,人工智能与司法工作深度融合发展战略上升为国家战略,各地纷纷开启智慧法院建设步伐。1从智慧司法1.0到4.0,人工智能司法已成为一种现实,深刻地改变着传统法院的组织能力与管理结构,冲击着诉讼架构和程3DOI:10.16823/ki.10-1281/d.2023.02.0022 0 2 3年第2期序机制,重塑法律人的理念、情感、行为乃至结果模式,甚至影响整个司法权力在国家权力架构中的定位。2但对于智慧法院建设,学界呈现两种分歧立场:一种观点认为,从司法本质看人工智能司法具有主体正当性,从司法裁判的手段看智能裁判具有逻辑正当性,从司法过程看人工智能司法具有程序正当性,从司法结果看智能司法具有结果正当性,因此,人工智能司法的整体正当性充足。3另一种观点认为,人工智能司法的运用程度有限,只能作为一种实现司法正义的辅助手段,不能排斥法官的心证和裁量,这是其运用所应遵守的基本原则。4然而,法律是一种风险控制机制,习近平总书记在中国共产党第十九届中央政治局第九次集体学习时强调:“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”5法律是风险识别和控制的主要手段。法律是一种社会建构。因此,对法律的合适态度,应该是审慎而非颂扬(c e l e b r a t i o n)。6法律的保守主义立场使得我们更需要保持一种批判主义研究进路。目前学界对人工智能司法的批判性研究成果大致可归为以下几个方面:一是人工智能司法产品运用过程中外部技术环境的限制,最为典型的是作为智能司法决策基础的司法数据样本存在“伪充分性”,7还包括法律语言与计算机语言的隔阂等;二是人工智能内在的技术困境,典型的是算法歧视、算法黑洞与算法霸权;三是人工智能的伦理与价值困境,体现在人工智能无法对司法正义作出实质性权衡,也无法复制法律人的“情怀”和“匠心”;8四是人工智能受到司法环境的制约,如国家的政策性、政治性因素,地域因素,习惯规则以及法律体系的差异等。作为一项智能推理与决策技术,无论是人工智能司法数据的“伪充分性”、算法黑洞困境,还是人工智能的伦理与价值困境,都指向人类如何正确使用人工智能,而至于人工智能又如何满足人类对司法正义与价值目标的追求,透明性、可解释性及由此产生的可信赖性成了解决问题的关键。2 0 1 9年4月,欧盟委员会发布的 人工智能道德准则提出了值得信赖的透明性规则;2 0 2 1年1月,欧洲议会和理事会发布的 关于人工智能的统一规则(人工智能法)并修正某些联合立法行为同样对人工智能的透明性和可理解性进行了着重强调。92 0 2 1年9月,我国国家新一代人工智能治理专业委员会发布了 新一代人工智能伦理规范,明确提出人工智能发展需遵守“确保可控可信、强化责任担当”等六项基本伦理要求,基于可解释性才能实现验证、审核、预测与信赖。事实上,我国以人民为中心的司法审判工作本质是一种“回应型司法”或“纠纷解决型司法”,1 0回应型的内4234567891 0参见徐骏:智慧法院的法理审思,载 法学2 0 1 7年第3期。参见彭中礼:司法裁判人工智能化的正当性,载 政法论丛2 0 2 1年第5期。参见季卫东:人工智能时代的司法权之变,载 东方法学2 0 1 8年第1期。习近平:加强领导做好规划明确任务夯实基础 推动我国新一代人工智能健康发展,载 人民日报2 0 1 8年1 1月1日,第0 1版。参见 英哈特:法律的概念(第3版),许家馨、李冠宜译,法律出版社2 0 1 8年版,第1页。参见前引 1,聂友伦文。参见马长山:司法人工智能的重塑效应及其限度,载 法学研究2 0 2 0年第4期。参见刘艳红:人工智能的可解释性与A I的法律责任问题研究,载 法制与社会发展2 0 2 2年第1期。参见 美米尔伊安R.达玛什卡:司法和国家权力的多种面孔 比较视野中的法律程序(修订版),郑戈译,中国政法大学出版社2 0 1 5年版,第1 4 1 5页。周 媛 张晓君:人工智能司法的可解释性困境及其纾解在向度正是追求司法活动的透明性和可解释性。例如,行政诉讼领域的“行政争议的实质性解决”,法理逻辑即是通过充足的沟通与恰当的交流平台,让诉讼活动评价回归当事人的“体验感”,提高当事人的司法获得感,从而增强司法判决的可接受性。行政裁判的可解释性正是实质性解决行政争议的前提条件。虽然近年来对于人工智能的可解释性的研究逐渐升温,但事实上人们对人工智能“黑洞”的内在原因及破解路径仍然疑问重重,就像2 0 1 7年A l p h a G o如何战胜了两位世界围棋冠军,赛后柯洁坦言其策略是那么让人惊诧。国内法学界聚焦人工智能司法的可解释性这类子领域的有力研究成果并不多见。1 1因此,下文从人工智能司法可解释性困境的具体表现入手,阐释人工智能可解释性的具体内涵,探寻可解释性困境的具体方面及其形成的机理,进而对可解释性的主客观基础作出研判,得出纾解人工智能司法可解释性困境的有效之道。二、可解释性界定与人工智能司法可解释性困境概念是逻辑研究的起点。对解释性的界定成为本文研究的起点。由于理解活动“具有双重的主观性:理解对象的主观性和自身活动的主观性”1 2,在对研究概念和对象进行界定和选取时要尽可能做到多维度、多视角。(一)解释与可解释性:多学科融合视角“解释”在汉语中包含两层词义:分析阐明和说明含义、原因、理由等。但在科学哲学领域,“解释”一词的词义往往从本体含义转移至语境功能层面,关联到解释主体和对象之间的逻辑关系。例如,亚里士多德就曾通过物理学的观察提炼出“四因说”,得出解释其实就是对事物(解释项)与事物(被解释项)之间“为什么”产生、发展、变化、消亡等一系列动因的说明。学者亨普尔(C a r lG.H e m p e l)和奥本海姆(P o u lO p p e n h e i m)在 解释的逻辑研究一书中进一步明确解释的“阐释”作用,即解释是对解释项与被解释项之间关系与逻辑的重构,或达到论证某种关联的目的。1 3由此,这种解释功能也被定义为对解释项与被解释项因果关系的挖掘,如美国哲学家刘易斯(C l a r e n c e I r v i n gL e w i s)直接将解释等同于因果关系的说明,“解释一个事件就是提供一些关于其因果历史的信息。在解释的行为中,一个拥有一些关于某个事件的因果历史的信息(我称之为解释性信息)的人试图把它传达给其他人”1 4。但是,因果关系并非事物关联性的全部,并非所有的因果关系都存在唯一的解释形式,由此,解释的路径和方法具有多元性,特别是科学哲学领域不同的逻辑将引导出不同的可解释性方法。例如,在知识图谱的推理方法中,至少存在“符号主义”“行为主义”“连接主义”“新型混合”四种可解释知识推理类型,不同的51 11 21 31 4相关文献参见前引 9,刘艳红文;姚叶:人工智能算法的不可解释性:风险、原因、纾解 兼论我国“举报人免责制度”的具体建构(英文),载 科技与法律(中英文)2 0 2 2年第3期;苏宇:优化算法可解释性及透明度义务之诠释与展开,载 法律科学(西北政法大学学报)2 0 2 2年第1期等。德马克斯韦伯:社会科学方法论,韩水法、莫茜译,商务印书馆2 0 2 0年版,序言第1 7页。S e eC a r lG.H e m p e l&P a u lO p p e n h e i m,S t u d i e s i nt h eL o g i co fE x p l a n a t i o n,1 5P h i l o s o p h yo fS c i e n c e1 3 5(1 9 4 8).转引自闫坤如:可解释人工智能:本源、进路与实践,载 探索与争鸣2 0 2 2年第8期,第1 0 7页。2 0 2 3年第2期推理类型又对应着不同的推理方法。1 5这就需要以一种多学科融合的角度来理解人工智能领域的解释。回到人工智能领域,人工智能领域的解释本质是指人工智能的可理解性或透明性,亦即人工智能的“演绎法则”能够被人所认识、领悟。从亚里士多德的“四因说”出发,人工智能的可解释性作为语境词汇,至少会涉及基础数据、目标任务、算法模型以及人的认知这四类关键要素。其一,数据是人工智能得以存在的前提,人工智能本质即是借用计算机对大数据强大的搜索统计、计量分析、深度学习等功能,而形成的一种计算认知,足够多、足够好与足够真实的大数据是人工智能的必要条件。但采集哪些数据不采集哪些数据,对于人工智能而言似乎并不是一个不言自明的清晰逻辑,它有待于目标任务的明确设定。其二,目标任务在逻辑上是为达到某种效果或完成某种行为,但如何将这种效果或行为设定转换为计算机语言以完成人类语言向数智语言的转变,需要抓住的关键是两类“语言”之间的联结点在哪里。一般而言,事物的规律性是两者之间的联结点,因此可以通过足够优质的大数据进行因果逻辑抑或形式逻辑的推理,建立两者之间的确定性或概率性的关联,形成一种以事物的规律性和逻辑自洽为中心的算法模式。其三,算法模型是数据充足、目标明确的基础上所刻画的一种客观逻辑结果,它也是人工智能可解释性的关键所在,按照可解释性的程度大致可划分出三类算法模型:1 6(1)参数模糊型,主要是指由于任务的复杂性与数据的繁杂性,算法模型并非设定一个单一的清晰的范围值或确定的任务目标,只是在一个可能的概率值范围内搜索更多的可能有用的数据,从而完成相对模糊的逻辑关联运算,如深度学习模型;(2)参数明确型,主要是指任务较为明确、逻辑较为清晰的目标运算,这类运算通常在给定的范围值内,搜集较大关联性的数据,从而得出较为公认或公式化的算法模型,如统计学习模式;(3)参数外显型,相比于明确型,这类算法本身具有透明性,也可称为“白盒模型”,需要提取哪些数据以及目标设定都十分明确,得出的结果也自然较为单一,通常遵循条件式因果推理规律,如专家知识模型。其四,人的认知是这四类关键要素的决定因素,相对于算法模型而言,人的认知与意志更具主观性,主观性会加剧对人工智能决策过程的理解差异,不同群体由于知识范围的差异对算法决策的理解能力自当不同,如何弥