温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
风险
预防
视角
下人
识别
技术
法律
规制
优化
颜韵
第 28 卷第 3 期2023 年 6 月 25 日 Vol.28No.3Jun.25,2023Journal of Hebei Open University河北开放大学学报风险预防视角下人脸识别技术法律规制优化颜韵(中央财经大学 法学院,北京 100081)摘要:将人脸识别技术风险控制在“可接受范围”内是个人信息国家保护义务的应有之义。国家任务应从后果控制转向风险预防。由于个人的风险认知困境,商业场景下的人脸信息采集知情同意原则形同虚设。公共安全场景以维护公共利益作为采集人脸信息的“免死金牌”,亦反映出风险预设的片面性。要解决上述问题,应确立以“场景、风险导向”补充“目的必要性”的人脸信息使用的风险预防理念,并构建人脸识别技术风险规制框架。关键词:人脸识别;风险预防原则;敏感个人信息;知情同意中图分类号:D 923 文献标识码:A 文章编号:2097-1567(2023)03-0057-06一、引言风险预防原则起源于德国行政法有关治理空气污染的尝试,随着科技进步与发展,风险的范围亦从传统风险升级为现代风险,风险预防原则的适用范围进一步扩大,正在成为一项应对不确定科技风险的习惯国际法原则。作为数字科学领域的代表之一的人脸识别技术是基于个人面部特征信息进行的一种生物识别技术,包含人脸采集、人脸图像规划、人脸检测、人脸特征提取和人脸比较五个步骤。得益于深度学习技术,人脸识别技术应用场景与市场规模不断拓展。纯粹的技术理性和多元的现实利益正驱动着人脸识别技术一路高歌猛进。短期即规模化运用的背后常常忽略了充分的风险评估,负面效应随之显现,例如人脸识别技术的安全性欠缺对个人的侵权影响不可逆,监视权力扩张导致社会异化为福柯笔下的“超级全景监狱”。改进代码等技术手段以处理上述问题的同时,现实也呼吁着法律对人脸识别技术作进一步规制。实践中人脸识别技术法律纠纷案例屡见不鲜,收稿日期:2022-12-03作者简介:颜韵(2000-),女,江苏盐城人,中央财经大学法学院国际法学专业硕士研究生,主要从事国际法学、网络法学研究。参见“顾某诉天津城关物业服务集团有限公司案”,天津市和平区人民法院(2021)津 0101 民初*号民事判决书、天津市第一中级人民法院(2022)津 01 民终*号民事判决书(裁判文书编号未公开)。参见“郭某诉杭州野生动物园案”,杭州市中级人民法院(2020)浙 01 民终 10940 号民事判决书。试举2022年“天津人脸识别案”加以说明。A 居住的小区 B 物业公司采用人脸识别系统作为进入小区的验证方式,A 因担忧个人信息被泄露,要求B 物业公司删除其人脸信息并提供其他验证方式,协调未果后 A 将 B 物业公司诉至法院。经过两级法院审理后,其诉讼请求由一审的驳回改为支持。该案基本案情似乎并不复杂,然而省察本案及其他同类型案件的处置结果,需尤其注意的一个问题是,不同于“人脸识别第一案”法院将案件定性为服务合同纠纷,本案二审法院对案件性质重新界定为个人信息保护纠纷,强调了人脸信息作为敏感个人信息的特殊属性。但该案只能作为个人捍卫其人脸信息不被滥用的一次尝试,其背后暴露出一直以来人脸识别技术内嵌的极为强烈的高风险概率,以及社会公众对人脸识别技术潜在风险的担忧。围绕人脸识别技术的法律规制,已有诸多学者进行了探讨,必须加强人脸识别技术的法律规制已成为学界的共识,争论的焦点在于法律应采取何种路径来加强规制。试拆分为多个小问题:DOI:10.13559/ki.hbgd.2023.03.01158第 28 卷河北开放大学学报为何规制?针对何种风险而规制?如何规制?对以上问题的讨论,构成本文的写作脉络。目前学界对风险预防原则已有一定的关注,但将风险预防原则应用于人脸识别技术法律规制的研究还不多见。有鉴于此,本文试图将风险预防原则纳入人脸识别法律规制的分析框架,对其应用目标、应用现状和完善路径等进行探讨,以期风险预防原则成为检验当下人脸识别技术法律规制实效的标尺和法律规制变革的“催化剂”。二、人脸识别技术法律规制的预防行政属性德国学者沃尔夫指出,为了维护法律秩序的安全,政府需要事前预防风险、处理当下危险和事后消除危险。1预防行政是指政府为了防范特定社会风险的发生,主动介入相关活动采取相应措施。在预防行政语境下探讨人脸识别技术的规制,正是出于对人脸识别技术高风险的担忧,国家通过履行风险预防义务以解决当下人脸信息保护的困境。1.作为风险预防原则调整对象的人脸识别技术风险预防原则虽起源于环境法领域,但随着社会上愈来愈多的风险不确定性和不可预测性出现,风险预防原则亦被用于处理这些风险。对人脸识别技术而言,法律面临着安全与利用价值的权衡,立法者面临着是否需从偏重后果规制至正视风险预防的规制理念与调控手段的转变。(1)人脸的二重属性。人脸是“生物性的通用标识符”2,不可隐匿,易采集而不易更改3,具有肖像和身份的双重属性。在个人信息保护法出台前,人脸图像首要便与肖像权相关。肖像权是非物质性人格权,亦是标表型人格权,其本质为一种“受尊重权”而非“支配权”,是一种消极权利而非积极权利,这决定了肖像权的保护往往只能发生在遭遇权益侵害型不当得利时。民法典第1019条进一步扩张了肖像权的保护范围,以丑化、污损的形式或者利用信息技术手段伪造他人肖像等行为都属于侵害他人肖像权。由此可知,除了肖像的商业化利用外,对于绝大多数普通人,通常只有在未经本人同意,对方以侮辱性、伪造等不法方式使用“人脸”时,才构成侵害肖像权的行为。4人脸的第二重属性为个人的“身份”。人脸识别技术可实现高度精确性,通过对个人肤色、五官等相貌特征的识别,锁定个人身份。这里的身份强调的是社会身份而非自然身份。正如马克思所言,人是先在市民社会中生活,后才在政治国家中生活。而人作为自然存在的个体,不是一蹴而就进入政治社会中的,这中间的一个环节是一个人成为社会意义上的人。个人的自然属性只有被“看见”、被“听见”,被他人“意识到”、被社会“考量”,才能体现个人在社会关系网络中的坐标位置。因此,相比于自然身份,强调将社会属性集合于人身的社会身份更具意义。那么,人脸识别起到身份认证的功能,成为激活各类社会身份与活动的钥匙。人脸识别不侧重于相貌的自然身份识别,而是重在识别的基础上进行社会身份分析5,亦即将纯粹的身份识别转换为身份分析,分析个人在社会关系网中的所处位置。(2)人脸识别技术的风险特征。人脸识别技术风险之所以要被规制,一个重要原因在于,人脸识别技术不仅关涉个人利益,其风险可能引发的连锁效应亦难以控制,对于社会秩序构成挑战与危害。对个人而言,人们对人脸识别系统的安全性忧虑与日俱增。以“欺骗攻击”这种常见黑客手段为例,攻击者基于目标人脸的图像构建虚假生物特征,通过假体在人脸识别系统中进行识别,从而通过人脸识别,取得目标人的访问授权。6实践中,诸如“00后”破解厦门银行人脸识别系统、运用3D 面具在支付宝平台刷脸成功等案例屡见不鲜。即便平台因未能防范欺骗技术而被罚款,安全性欠缺对个人的损害却是实质性的和不可逆转的。人脸识别信息具有不易更改性与唯一性,其背后更代表着个人的社会身份评价,一旦被泄露和非法利用将永久脱离被识别者的控制,此后所有与人脸认证相关的社会活动均处于危险状态。被识别者因此可能面临遭受身份窃取、歧视、欺诈和名誉受损的风险,人身和财产安全陷入极大的不确定性当中。即便人脸信息匿名化处理,技术发展也可能导致人脸信息被重新破译,或结合位置、行踪等线索指向特定人7,而民法典1034条与个人信息保护法第4条以可识别性来定义包括生物识别信息在内的个人信息显然存在一定的隐患。在社会的视角下,监视权力的扩张可能会引发寒蝉效应。在金融、教育、医疗、社会保障等各个领域人脸识别都参与其中,甚至成为开启上述活动的钥匙或入场券。各个场景联合起来便构成了整个数据依赖型社会,因此人脸信息的使用不仅与个人利害相关,而且还与整个社会的运行机制关联。8在福柯笔下的“超级全景监狱”中,59 第 3 期被监视者无法反抗监视的权力。而如今,处处可见的监控辅以人脸识别的身份识别机制,每个个体都可以被快速识别并持续追踪。不同于边沁、福柯所处时代下的比喻,现代社会的“超级全景监狱”有着更为隐蔽、泛娱乐化的特点,更多的商业场景经营者成为监视者,拥有类似公权力式的权力。无处不在的人脸识别可能会引发寒蝉效应,当人们意识到其正处于监视中,个体行为将受抑制,阻碍社会进步与个人发展。2.人脸识别技术风险预防的行政权定位对于如何防治人脸识别的危害,有两种应对方式:一种是传统的私法保护进路,等待已发生损害结果再去采取措施,提起侵权损害赔偿诉讼这一事后救济方式。另一种是通过一系列措施使人脸识别技术处于安全状态,对个人不产生影响,亦即风险的控制。人脸识别技术法律规制面临着如上的选择,本文认为,零风险的预防性原则并不适用于人脸识别技术。9但是,从人脸识别技术的后果控制到风险预防是必然趋势,这亦是国家作为个人信息保护义务主体从被动走向主动的必由之路。通过对人脸识别技术风险特征的分析可知,人脸识别技术的风险来源是与个人之间存在持续性不对称关系、对个人实施压迫性监视的权力,且此种权力的行使有着极大的安全性欠缺之可能。由于人脸识别技术的隐蔽性特征,监视与生活的界限并不明晰,当发现损害结果时,个体难以判断侵权发生的时间点、危害程度与后果,这决定了人脸识别技术侵权的私法保护进路存在困境。而风险预防原则凸显了国家的个人信息保护义务,个人信息保护法第11条规定国家预防和惩治侵害个人信息权益的行为,即确立了风险预防原则。实际上,风险预防作为一种更广义的国家义务早已得到法律的承认,预防义务是国家保护义务扩大的结果。10在我国行政法领域适用风险预防原则,大多数集中在食品安全领域。11迄今为止,学界与实务界已经对此原则形成了丰富的认知,行政法的其他领域,也有着适用风险预防原则的讨论。相比于私法给予的侵权损害赔偿外,行政权也可以对人脸信息控制者与使用者的日常进行监管。监管型的行政执法面向一般的人脸信息收集、使用场景,能够督促人脸信息控制者合规运营,实现事前预防的效果。那么人脸识别技术风险预防的目的是什么?在各国立法和国际条约中,产生了对风险预防原则的多种定义和理解。在最基础的意义上,对风险预防原则的理解有“弱”“强”的区分。但无论是哪种定义,风险预防原则的核心在于对科学上不能确定的风险的规制。它要求政府在公民面临不确定风险时,采取保护公民的预防性规制措施,至于是这样规制还是那样规制,风险预防原则无法提供特定的、固定的答案,这将在政府综合考虑各种不确定性与信息后作出。12因此,这里内含着价值选择的过程。事实上纵观各国立法,根据不同种类的具体数据类型而制定不同的数据规则与制度是大势所趋。13本文认为,人脸信息作为一项敏感个人信息,涉及多元利益。不同于强调数据开发利益价值的一般数据,亦不同于关系国家安全与社会公共利益的核心数据,对人脸信息的关注点应是在数据安全的基础上实现利用价值,即安全是人脸识别技术风险预防的首要目的,利用作为次要目的。协调平衡二者关系,才能建立合理的人脸信息使用规则。三、风险预防原则应用于人脸识别技术法律规制的现状考察最高人民法院于2021年7月发布了关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定(以下简称人脸识别司法解释),这是我国专门针对人脸识别应用进行规制的第一部法律文件。2021年8月,个人信息保护法发布,其中关于敏感个人信息的规定、关于公共场所安装图像采集、个人身份识别设备的规定,与人脸识别密切相关。另外,民法典第四编人格权编规定了个人信息保护的基本原则和框架。这些法律规则构成了我国关于人脸识别规制的主要法律框架。其中,“风险”一词在个人信息保护法中出现了4次,体现出立法者的风险意识,但相比于欧盟 一般数据保护条例 中“risk”(“风险”)一词出现了75次,我国在个人信息保护法中未能表现出对风险的高度关注,且如何将风险预防原则制度化建设并细化发展仍待进一步的思考。1.个人风险认知困境:知情同意原则失效对于非公共安全场景而言,人脸识