温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
自动化
行政
中的
算法
卸责
高童非
115电子政务 E-GOVERNMENT 2023年第2期(总第242期)学术篇论自动化行政中的“算法卸责”*摘要:算法决策在电子政务中广泛应用,随之而来的是自动化行政决策出现巨大的责任漏洞,从而引发决策者的“算法卸责”。“算法卸责”的主要策略有代理策略,即“寻找替罪羊”,以及政策策略,即“避免行使裁量权”等。算法决策与问责制之间存在较大张力,可能造成问责制功能的失调,具体包括难以保证决策透明度、提升绩效的阻力较大、回应沟通机制的匮乏等。鉴于此,有必要分析不同类型的算法决策系统,寻求维系问责制的有效途径。在决策替代系统中,一方面厘清公共部门与供应商之间的责任关系,另一方面在决策闭环过程中加入必要的人为干预。在决策支持系统中,除了需要考虑“人机交互”决策中的责任界定,还应当揭开“算法面纱”,引入“穿透式”问责理念。关键词:数字政府;电子政务;自动化行政;自动化决策;算法决策;算法问责;算法避责 DOI:10.16582/ki.dzzw.2023.02.010 高童非中国农业大学人文与发展学院*基金项目:国家社会科学基金重点项目“自动化行政中算法决策的法律控制”(项目编号:21AFX004)。收稿日期:2022-04-22修回日期:2022-07-18随着大数据、人工智能、自动化决策在各个领域的推广,“算法时代”正以人们未曾预料的速度到来。算法在公共领域与私人领域的影响力都在不断攀升,逐渐成为规训社会的重要力量。无论对于政府等公权力主体还是商业平台等私权力主体,算法都具有赋能、赋权与控制三重能力。算法所具有的支配力、控制力和影响力,构成了一种新型的权力,即“算法权力”。算法权力具有“准公权力”的性质和“去中心化”的特征,这使其成为打破原有权力格局的关键力量。算法权力所呈现出的弥散性和流动性,使得包括政府在内的不同主体都有机会竞逐这种权力。当前有关算法权力的讨论主要聚焦于网络平台等私人领域,而政府的公权力与算法权力相结合带来的风险,尤其是算法引发政治问责的难题,亟待学界予以重视。一、“算法卸责”的提出问责制是现代民主化治理的标志,如果当权者无法为他们的决定、政策和支出等作为或不作为负责,民主将沦为一纸空文。问责制是一种社会机制,在这种机制中行为者感到有义务向其他主体解释和证明自己的行为是正当的。1182,184现代政治是责任政治,这种理念源自现代政治正当性的要求。民主与责任是现代政治的“一体两面”,是人民主权带来了责任政治。然而,现代“风险社会”催生出一种“有组织地不负责任”的趋势2,在风险不对称的情况下,全球性的“避责时代”已然开启。3在算法时代,算法系统已经深度参与到行政决策之中,成为官员规避责任的新途径。官员在被问责时归咎于算法的情况势必成为今后政治问责的一大障碍。(一)责任政治语境下的问责与卸责学者们通常使用“避责”(blame avoidance)这个术语描述官员们规避责任的自我保护行为,即运用策略逃避、转移或减少被问责者所应承担的责任。4“避责”与本文所使用的“卸责”有密切的关联性。所谓“卸责”,顾名思义就是推卸责任,具体包含两个向度:第一是个体意义上的“卸下”责任;第二是互动语境下的“推却”责任。在后一种语义中,卸责具有指向性,即116电子政务 E-GOVERNMENT 2023年第2期(总第242期)高童非论自动化行政中的“算法卸责”责任在不同主体之间转移。从广义上理解,卸责是规避责任的一种形式,但是中文语境中的“避责”一词在形容主体间互动的关系时有所欠缺。另外,“避责”主要着眼于归责前的责任规避,而在解释官员如何应对已经施加其身的责任问题时同样力有不逮。不过鉴于两个术语之间仅存在一些细微的差别,且具有包含关系,因此仍然可以在公共管理领域关于“避责”问题研究的理论框架下探讨政府官员的卸责问题。随着学界对政府问责制研究的深入,关于避责的研究也悄然兴起。自20世纪80年代以来,避责问题逐渐为学界所重视,现今已成为政治学、管理学等学科的热点议题。在政治活动中,问责与卸责是一对“共生”现象,是“币之两面”。卸责是对问责的一种回应,二者之间存在“因果关系”和“双向互动”的双重逻辑。5虽然问责和卸责在微观层面的博弈关系十分复杂,二者互动的逻辑难以用统一的线条精确勾勒,但问责力度的大小无疑在形塑着官员的行为。通常情况下,卸责的紧迫程度与问责的力度是成正比的,如果卸责策略是有效的,高强度的问责会引发更激烈的卸责。当问责强度很高时,被问责者也会转变应对策略,更多以积极行动来应对而非置若罔闻;随着时间的推移,若是卸责效果不佳,被问责者也会从拒斥责任转变为承认或部分承认责任。6问责制是民主制的应然要求。政治学家福山将“强大的国家能力”“法治”和“民主的责任制政府”视作国家治理中必须具备的基本要素。7遍布官僚系统内的卸责风气必将在一定程度上损害民主责任制的运行,也将阻碍国家治理体系与治理能力的现代化。针对领导干部逃避责任的现象,习近平总书记在2020年12月举行的中共十九届中央政治局民主生活会上的讲话强调:“要强化责任意识,知责于心、担责于身、履责于行,敢于直面问题,不回避矛盾,不掩盖问题,出了问题要敢于承担责任。”这表明,党和国家已经注意到了政治系统中的卸责问题,愈发重视和强调官员履职过程中的责任担当。政府官员推卸责任的现象自古有之,早在民主制诞生之前,卸责就广泛存在于政治实践中。卸责是不可避免的,有问责就有卸责,但在不同的时代卸责的具体方式有较大差异。在如今高度数字化、智能化的社会中,算法改变了政府及官员行使权力的模式,也改变了其分配和承担责任的方式。在此背景下,算法时代的卸责机制也呈现出新的样态,如何重塑责任框架成为不可回避的时代课题。(二)裁量事项类型的卸责空间近年来,算法系统在公共领域的应用愈发广泛,税务、金融、民政、教育、医疗、治安、交通、司法等领域都引入了较为成熟的自动化系统。政府部门越来越多地通过采购等方式在政务处理中引入算法系统,与企业合作开发了种类繁多的网络平台,这些平台在政府数字化转型中扮演了关键角色。“平台即政府”(government as a platform)等概念的提出,打破了传统政府的边界。在我国,“推进数字政府建设”已成为提升政府行政效率和履职水平的重要抓手。在人工智能时代,平台的运行更加轻链化和自动化,这极大削弱了平台归责的基础。算法之所以可以承接人的责任,是由于公共部门在利用算法生成的知识系统作出相关决定,而这种算法决策可以干预甚至替代人的决策。卢曼认为,在一些情况下,损害的产生被认为是人为决定的后果,因而归咎于决定,这就属于风险范畴,或者说是“决定的风险”;而在另一种情况中,产生的损害被认为是由外部因素引起的,即归咎于环境,则属于危险的范畴。8可见,单纯的危险是无法追责的,而与决策有关的风险则是应受责难的,这就是选择的后果责任。德沃金也主张,原生运气指与人的主观意志无关的运气,无法对其追究责任。正所谓无选择无责任,原生运气是不存在问责空间的。至于选择运气,是个人选择而导致的结果,需要自我承担责任。9在风险社会中,监管者不得不关注那些以发生的或然性为特征的风险与不确定性问题,将危害发生的概率作为确定责任和义务的根据,并加强对偶然117电子政务 E-GOVERNMENT 2023年第2期(总第242期)事件的去随机化处理10,或者称为“不确定性吸收”。算法决策可以吸收多大的责任取决于算法与最终行政决策结果之间关联性的大小。从人的角度说,就是运用算法系统执行任务时人的自由裁量权的大小。如果算法对最终决定的影响力是直接且强大的,或者是人的自由裁量空间很小甚至不存在,则算法可以吸收较多的责任。相应地,在此情形中人可以通过算法系统完成卸责。行政机关所决定的事项根据类型的不同,其中裁量权的大小有明显差异,具体可以分为无裁量权的事项、预定裁量的事项、相对确定裁量的事项和高度不确定裁量的事项。目前,算法系统均已应用于这几类事项的决策当中。在无裁量事项的决策中,近年来全国多地上线的“秒批”系统即典型案例。在出版物零售业务许可、道路运输经营许可等事务的审批中,申办人通过实名验证、材料上传、认证签名、智能审批等步骤,即可在数秒内至多几分钟内完成审批。整个审批过程无人工干预,也不存在人的裁量空间。在这些事项的办理中,出错的概率比较小,可能遇到的问题有系统出现漏洞、系统被侵入攻击、硬件损坏等。当决策发生偏差时,行政机关可以顺势将责任推卸给算法和机器。预定裁量是德国法上的概念,指的是法律虽然规定裁量,但除非出现例外情况,裁量方向已为法律指明,法律其实已确定特定结果。11虽然在此情形中仍然存在裁量的空间,但若无特别的情况,不能改变预定的结果。这里的裁量权属于羁束裁量权,而不是自由裁量权。引入此概念可以让行政机关不需要对事项进行精细的权衡和说理,从而快速作出决策。此类裁量与算法系统的运作机制十分契合。算法系统可以按照预定的方向作出决定,继而由人工审核是否存在非典型的事由。由于大部分的工作都是由系统完成的,且出现例外情况的比例相当低,因此官员依然可以轻松地将责任归咎于算法系统。相对确定裁量的事项运用智能算法系统进行处理十分常见。这些事项决策的考量因素大多是可量化的,例如针对不同的风险等级设计指标体系开展量化评估,根据评估的数值分级分类管理。精算的方法可以将原本不确定的概念量化成固定的指标,从而达到削减裁量空间,确保决策稳定性的作用。比如,人力资源部门在开展人才引进时,通常需要认定候选人是否属于“高层次人才”。“高层次人才”本属于不确定概念,但是行政机关可以通过专业技术职称、获得奖励、荣誉称号、学历学位、承担课题等指标进行评估后决定是否引进。在算法系统普及后,运用评估数值对人员进行分类分级管理也是相对确定事项裁量的重要体现。在高度不确定裁量的事项中,公共部门拥有巨大的选择空间,而且在很多情况下决策时很难知道何种选择是正确的,甚至决定本身无所谓对错。但是若在事后造成了负面影响,决策者依然有被追责的风险。这些事项比如核电站的选址、规划和拆迁的区域、通信基站的布局等。这些事项的决策可能对人类来说难以抉择,但是算法系统可以较为迅速地对海量数据和信息进行汇总和分析,进而得出较为合理的结论。在这些高度不确定裁量事项的算法决策中,人们不易探查或复盘系统的运算过程,因此对结果施加的干预十分有限。在决策对错以及带来的后果难以预料的情况下,选择依赖算法而减少人的介入是规避问责的捷径。虽然通常来说人干预的程度越大,通过算法进行卸责的空间就越小,但算法卸责的空间与裁量事项的确定性在总体上并非呈负相关。当裁量的不确定性超出可控范围时,决策者往往转而求诸计算机系统。(三)算法系统类型的卸责效果算法的含义较为模糊,但又具有很强的可塑性。较为简明的说法将算法界定为“一组精确划定操作序列的规则”12。具体而言,算法具有两个层面的意涵:一是从数据中学习的“训练算法”,二是用训练算法接受输入并产生输出结果的“模型算法”。本文主要在第二个层面使用算法这个术语。令人困扰的是,算法的含义还是相对宽高童非论自动化行政中的“算法卸责”118电子政务 E-GOVERNMENT 2023年第2期(总第242期)泛,一些不需要机器学习的技术,例如只是基于明确和规范的公式得出的结论,也可以纳入算法自动化决策的范畴。人们对算法的含义有不同的理解,前述算法的含义在很大程度上说是软件工程师倾向的一种“技术性阐释”,但社会学家在将某些事描述为算法时,关注的实际上是一种社会技术组合,除了算法本身之外,还包括计算机网络、数据、服务机构、操作系统的人等构成知识生产系统的各种元素。13在后一种解释中,算法的核心应当是人与机器的交互,或者说是人为的介入及其带来的责任问题。如何界定算法已经超越了纯粹语义上的争论。下文论述将表明,在公共领域,“算法”这个术语的使用可以使决策者和决策结果之间产生疏离感,从而转移责任。从算法的生成方式来看,公共领域已使用的算法系统主要包括两种类型,一种是统计型算法,另一种是学习型算法。在前一种类型中,算法可能只是简单的规则,或者固定的模型,具有确定性和可解释性。由这