算法民事归责的理性标准_于霄
1
算法
民事
理性
标准
第6 3卷 第2期河南大学学报(社会科学版)V o l.6 3 N o.22 0 2 3年3月J o u r n a l o f H e n a n U n i v e r s i t y(S o c i a l S c i e n c e s)M a r.2 0 2 3算法民事归责的理性标准于 霄(上海师范大学 哲学与法政学院,上海 2 0 0 2 3 4)摘 要:加快数字化发展是我国的战略规划,然而私权制度的底层逻辑还远不能支撑这一规划。算法归责应有理性标准,理性标准是民事归责制度中的必要评判工具,同时算法适用理性标准可以促进正义,还具有技术价值。然而,算法与传统主体有很大差异,算法归责直接适用传统主体理性标准将面临困境。所以,在现阶段应当明确算法的意思参与机制是归责的前提;传统主体在算法的开发使用中应承担应有的积极注意义务;通过承认部分算法的行为主体性和为算法设计独立责任来协调算法与传统归责体系的结构冲突。关键词:算法;人工智能;算法参与决策;理性;民事归责中图分类号:D F 5 1 文献标识码:A文章编号:1 0 0 0-5 2 4 2(2 0 2 3)0 2-0 0 3 9-0 8收稿日期:2 0 2 20 31 0作者简介:于霄(1 9 8 2-),男,山东枣庄人,法学博士,上海师范大学哲学与法政学院副教授。一、问题的提出我国“十四五”规划用了整整一部分来为“加快数字化发展,建设数字中国”谋篇布局,它既包括了数字经济与数字社会,也包含了数字政府,甚至考虑到了数字生态。而事实上,“十四五”规划中,从创新科技,到社会民生都已经与数字技术密不可分。数字空间已经成为或将要成为与实体空间平行的人类意思、行为与关系的空间。在数字空间中,数字主体也逐步发展起来。学界主流观点认为,在满足一定条件下,数字主体(或人工智能)应当被赋予法律上的主体地位(或法律权利)。虽然这些条件尚难以短时间内满足,但人们在双层空间的生活中,已经开始逐步接受数字主体。比如,相对于过去人们对商标与商号的依赖,现在人们更多地在使用算法为自己选择商品。商标与商号的底层逻辑是传统民法的主体及责任机制,而算法的行为与责任却没有相应的机制建立起来。面对现实世界的复杂性,理性标准是民事归责制度中的必要评判工具。而算法对民事行为的参与更增加了这种复杂性,没有适应算法参与的新理性标准,算法归责几乎不可能完成。算法的民事归责本质是在法律上设定一个“理性算法”,即什么样的算法才是法律上可以接受的一般算法。这实际比“理性人”的设定更为困难,因为在现有的技术条件下,很多行为并非由算法独立作出,算法参与决策是目前主要形态。所以,理性算法还承担着在算法参与决策行为中与传统主体责任区分的任务。从计算机时代,到互联网时代,再到移动互联时代,技术越来越多地进入现代人的生活,而算法时代不管以什么形态到来,都必将同样深刻地改变社会。为此,算法民事归责的理性标准的讨论将具有重要的理论价值。二、算法归责应有理性标准算法根据其智能程度不同,对人的决策参与程93在赋予法律权利的学说中分为:代理说,参见陈吉栋:论机器人的法律人格:基于法释义学的讨论,上海大学学报(社会科学版),2 0 1 8年第3期;有限人格说,参见袁曾:人工智能有限法律人格审视,东方法学,2 0 1 7年第5期;电子人格说,参见郭少飞:“电子人”法律主体论,东方法学,2 0 1 8年第3期;区分说,参见彭诚信,陈吉栋:论人工智能体法律人格的考量要素,当代法学,2 0 1 9年第2期。M I C HA L S.GA L,N I VA E L K I N-KO R E N,“A l g o r i t h m i c C o n s u m e r s”,H a r v a r d J o u r n a l o f L a w a n d T e c h n o l o g y,3 0(2 0 1 7).DOI:10.15991/ki.411028.2023.02.012度也不同,甚至某些算法可以基于深度学习进行一定程度的自动决策。例如,在法律领域,I BM公司的“R o s s”等“虚拟律师”已经加盟律师事务所进行独立的法律分析,O D R算法已经在网上独立解决纠纷,保释算法决定被告是否可以保释;外科医生也越来越依赖算法来进行诊断和选择最佳的治疗方案;随着无人驾驶技术的发展,在不远的未来,无人驾驶算法可能取代人类司机。所以,算法参与决策在各种工作中越来越常见。有行为就可能有损害,这种损害可以由侵权行为造成,也可以由违约行为造成。通过解释,有些损害可以在既有的民法过错理论框架内进行评判。而一旦算法参与到了人的意思机制中,过错评判就变得更为复杂。算法归责也应有理性标准,以使评判公平且高效。(一)理性标准是归责制度中的必要评判工具在民法制度的运行中,理性标准的构建具有必要性。民法的社会功能在于定分止争,在于对责任进行划分。而于此过程中,主观方面的考量具有特殊的复杂性。在法律的合法与非法二元评判体系中,客观方面比如是否违约、是否有侵权行为等,都具有相对确定的标准,而主观方面却难以找到一个明确标准。立法无法完成在复杂社会环境中对当事人主观方面是否合法进行相对精确描述的任务,只能将此任务交给法官在具体案件中具体评判。但是,将归责交由法官评判又不能衍生成司法的恣意,法官应当遵循一定的方法在个案中探寻当事人主观方面的应然状态,比如罗马法的善良家父标准、法国民法的善良管理人标准等。拒绝对算法进行理性分析的原因可以概括为:算法不是民事主体;算法没有独立的责任能力;算法由人设定,不具备单独接受理性评价必要等。但现在已经有人在自动驾驶这一特定领域讨论算法的理性。综合分析,反对对算法适用理性标准有以下两个方面的理由:其一,直接理由是算法不是人类。比如有学者不同意将过错理论适用于软硬件,给出的主要理由是“过错分析的一个组成部分是确定一个理性人在相同的情况下是否会有类似行为。然而,无论是硬件还是软件都不属于普通人的定义范围。”事实上很多学者都坚持人类中心主义。其二,“行为”或“选择”的分析不适用于算法。有人反对对算法进行人格化,当然也反对对其适用人的理性标准,其理由是算法没有自我意识、没有幸福感,只有被开发者设定的目标。黑格尔认为,“一切事物都应该为之存在的就是人、自我意识”,康德认为,人是立法的“终极目的”。这构成了算法理性否定的伦理基础。然而,关于算法主体性的讨论应当发展地看待,毕竟法人、船舶、财团都可以被拟制为民法上的人。现实问题是,算法由人类开发、运营和使用,区别算法与其人类开发者、运营者和用户的主观状态是否存在必要。换言之,算法与其人类开发者、运营者和用户的理性是否总是一致。如果总是一致,那么探究人类开发者、运营者和用户的理性为已足;而如果不一致,引发的新问题是,若不对算法进行行为主观状态的分析,如何进行相应的归责。(二)算法适用理性标准具有社会价值理性标准之所以在制度上可以促进正义,原因有二。其一,威慑。使可能侵犯他人权益的人,为使自己不承担责任而不为这些行为,或从另一个角度说,使承担注意义务的人,正确地尽其注意义务。其二,公平。在一方有过错或过失时,使其承担责任以实现公正,定分止争。民法过错责任的理论基础之一是公正,即对损害的赔偿。当然理性标准04KY L E C O L ONNA,“A u t o n o m o u s C a r s a n d T o r t L i a b i l i t y”,C A S E W.R E S.J.L.T E C H&I N T E R N E T,4(2 0 1 2).J A C K M.B A L K I N,“T h e T h r e e L a w s o f R o b o t i c s i n t h e A g e o f B i g D a t a”,OH I O S T.L.J.7 8(2 0 1 7).J E F F R E Y K.GURME Y,I m p u t i n g D r i v e r h o o d,i n R o b o t E t h-i c s 2.0:F r o m A u t o n o m o u s C a r s t o A r t i f i c i a l I n t e l l i g e n c e,P a t-r i c k L i n e t a l.e d s.,O x f o r d S c h o l a r s h i p O n l i n e,2 0 1 7,5 1-6 5.S A R ANYA V I J AYAKUMA R,A l g o r i t h m i c D e c i s i o n-M a k i n g,HA R V.P O L.R E V.(J u n e 2 8,2 0 1 7),h t t p:/h a r v a r d p o l i-t i c s.c o m/c o v e r s/a l g o r i t h m i c-d e c i s i o n-m a k i n g-t o-w h a t-e x t e n t-s h o u l d-c o m p u t e r s-m a k e d e c i s i o n s-f o r-s o c i e t y/,2 0 2 1年7月6日。KY L E C O L ONNA,“A u t o n o m o u s C a r s a n d T o r t L i a b i l i t y”,C A S E W.R E S.J.L.T E C H&I N T E R N E T,4(2 0 1 2).马长山:人工智能的社会风险及其法律规制,法律科学,2 0 1 8年第6期。吴汉东:人工智能时代的制度安排与法律规则,法律科学,2 0 1 7年第5期;赵万一:机器人的法律主体地位辨析:兼谈对机器人进行法律规制的基本要求,贵州民族大学学报(哲学社会科学版),2 0 1 8年第3期。付其运:人工智能非主体性前提下侵权责任承担机制研究,法学杂志2 0 2 1年第4期。黑格尔著,贺麟,王太庆译:哲学史讲演录 第4卷,北京:商务印书馆,1 9 9 7年,第2 5 7页。康德著,李秋零译:判断力批判,北京:中国人民大学出版社,2 0 0 7年,第3 8 2页。有学者将一般注意义务的功能总结为:危险回避和危险防免;规范不作为及间接侵害;违法性推定。前两者可以归纳为威慑,最后一点是为了公平。廖焕国:论德国侵权法上的一般注意义务:以司法判例为主线的考察,武汉大学学报(哲学社会科学版),2 0 0 6年第3期。R I C HA R D A.P O S N E R,“T h e V a l u e o f W e a l t h:A C o mm e n t o n D w o r k i n a n d K r o n m a n”,J.L E G.S TUD.,9(1 9 8 0).是让具有主观过错的人承担责任与理性行为人不承担责任之间的平衡。这一平衡取决于很多因素,其中最为重要的是效率与公正的价值冲突,比如过分地强调责任会抑制民事行为的发生。算法归责适用理性标准还具有技术价值:首先,促进技术的发展以及技术与社会的融合。毫无疑问,技术的发展会带来社会问题。但一味追求社会规范的一致性,而压抑技术的发展显然不利于整个社会的福祉。所以,合理地分配注意义务,进一步合理地分配责任与相应的风险,是促进技术发展及其与社会融合的最根本性选择。其次,容纳更高的技术发展。更强算力可以处理更大量数据,并且随着深度学习算法的发展,算法的智能程度也会越来越高。这种技术上的增长必定会对算法民事行为的类型、数量、参与度等产生重大影响,从而也对其相应的损害产生影响。构建更灵活的、适应性更强的、技术更加中性的理性标准,可以容纳更高的技术发展。法律对技术更高的包容性有利于法律在未来技术调整进步的时代保持其稳定性和确定性。最后,相对产品责任制度、无过错责任加保险制