分享
人工智能应用中数据安全的法律规制分析_蔡秉坤.pdf
下载文档

ID:2719999

大小:1.23MB

页数:8页

格式:PDF

时间:2023-09-17

收藏 分享赚钱
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
人工智能 应用 数据 安全 法律 规制 分析 蔡秉坤
45 2023.72023年第7期科技政策与管理人工智能应用中数据安全的法律规制分析一、人工智能与数据安全人工智能技术已经广泛应用到各个领域,深刻影响着国家政治、经济、社会、国防等各个领域的运行模式,已成为世界主要国家谋求新一轮国家科技竞争主导权的关键技术。我国非常重视人工智能发展和数据安全保护,二十届中央国家安全委员会第一次会议强调,要提升网络数据人工智能安全治理水平、推进国家安全法治建设。对人工智能应用中数据安全的法律规制进行分析,为人工智能技术健康发展和保障数据安全提供建议,符合国家安全形势和战略要求。数据、算法、算力是人工智能的驱动力,其中,数据是人工智能的核心,“数据为体,智能为用”。1一方面,数据为人工智能提供学习样本,人工智能的工作原理是基于大数据集和统计数据驱动的模式匹配过程2,用于人工智能机器学习的数据集越丰富,质量越高,机器学习的效果就越好。另一方面,人工智能又提升了数据收集管理能力和数据挖掘利用水平,用户在使用人工智能系统的过程中,通过端口将数据提供给人工智能服务系统,人工智能就可以从庞大的数据集中精准找到目标数据,并对其进行深度挖掘分析,进而从中挖掘出有利用价值的信息,以提供精准服务。3数据安全是人工智能技术安全的关键。为人工智能提供学习样本的数据,可以称为“训练数据”。这些数据是人工智能算法开发者在研发人工智能系统或产品时所赋予的样本数据,其可能存在数据质量安全、数据投毒攻击等风险,从而导致人工智能学习到错误信息,以致人工智能在决策时作出错误判断。3此类数据风险主要源于人工智能内在技术的局限性,具有技术复杂性,并非法律规制所能解决的问题,因此不在笔者的讨论范围之内。人工智能技术滥用其强大的数据收集和数据分析利用能力导致的数据安全风险,远比人们想象的可怕。人工智能技术滥用或不当应用导致的数据安全风险,如数据过度采集、数据歧视、数据滥用、数据垄断蔡秉坤徐小壘兰州大学法学院,甘肃,兰州,730000摘 要:数据是驱动人工智能浪潮全面兴起的基础要素之一,数据安全是人工智能安全的核心。然而,人工智能的高速发展也带来数据安全的风险挑战。文章从个人数据安全风险、企业数据安全风险等方面总结了人工智能应用中存在的数据安全风险,并分析了人工智能应用中数据安全的法律规制,从加快数据安全立法和数据确权、数据安全的“穿透式”监管、数据安全“监管沙箱”、数据安全协同治理等方面提出相关建议。关键词:人工智能;数据安全;数据确权;“穿透式”监管;监管沙箱中图分类号:TP309.2 文献标识码:A DOI:10.19881/ki.1006-3676.2023.07.07作者简介:蔡秉坤,男,1976年生,博士,副教授,研究方向:信托法、公司法。徐小壘(通信作者),女,1997年生,硕士研究生,研究方向:民商法。46 2023.72023年第7期科技政策与管理等数据安全风险及法律规制,是笔者讨论的重点。二、人工智能应用中存在的数据安全风险人工智能被普遍认为是一个能够自主学习的机器或系统,其运行原理是从海量复杂且无序的数据集中,通过算法模型计算出一个结果,作为判断和决策的依据。3数据在人工智能应用中的生命周期,包括数据采集、传输、存储、处理、销毁等环节,各个环节均隐藏了数据安全风险。人工智能领域存在的数据安全风险,主要有以下几种:(一)个人数据安全风险1.个人信息泄露风险目前,人工智能主要应用在智能系统和智能设备两大模块,智能系统包括生物特征识别、智慧城市系统、智能医疗系统等软件系统,智能设备包括智能手环、智能手机、智能扫地机器人等各类智能终端产品。在用户使用这些智能系统和智能产品的同时,人工智能便采集了用户的人脸、指纹、声音、心跳、基因等具有强个人属性的生物特征信息4,甚至在用户不知情的情况下在后台偷偷运行,收集与其所提供的服务无关的数据。3此外,人工智能还可以通过计算、分析、处理收集到的数据,分析用户的心理活动,在用户毫无意识时,获取更多终端用户不会随意透露的隐私数据,甚至还会通过其自带的算法诱导终端用户提供更多隐私数据。5个人数据在人工智能面前一览无余,随着机器学习的不断深化,个人将再无任何隐私和秘密可言。2.数据滥用数据滥用风险主要有两种,其一,在社会消费领域可能会带来差异化定价。其二,在信息传播领域可能会带来“信息茧房”效应。4差异化定价,就是所谓的“大数据杀熟”,利用人工智能对用户消费习惯、兴趣偏好等数据的深度挖掘分析而进行差异化定价,侵害用户的知情权和公平交易权。而“信息茧房”效应是指用户更多接受满足自己偏好的信息和内容,导致社会不同群体的认知鸿沟拉大,个人意志的自由选择受到影响。基于这种数据滥用的个性化内容推荐,甚至会推送虚假政治广告,对选民意识形态和政治观点进行干预和诱导,从而影响政治选举,给国家和社会安全带来严峻挑战。6此外,人工智能终端用户并不能轻易地将操作记录从人工智能设备中完全删除,且大多数用户对于删除操作记录数据并无意识。人工智能通过收集分析这些记录,可以得出相对具体的个人数据信息,而这些个人数据会随着人工智能所有权或使用权的流转而不断流转,其储存的个人数据信息会继续在网络空间中传播和共享。5个人数据如失去控制般在网络中流动、共享,导致个人在网络中处于没有防护的状态。智能系统通过收集个人数据,再分析出有更大利用价值的信息,如购物软件通过分析用户浏览足迹、搜索记录、加购记录等数据,可以得出用户的喜好和消费倾向,进而进行相关产品推送,将用户变成“待割的韭菜”。另外,人工智能终端用户并不会考虑人工智能会将通过各种端口收集到的个人数据传送到哪里。这些数据大多情况下会被传输到云端,从而进行大数据云计算,而不是存储在本地设备中,至于数据上传到云端后究竟去了哪里,便不得而知。由于个人数据被不断收集、分析、流转,数据很有可能被不法分子攫取、利用,侵犯个人隐私权、人身权和财产权。个人数据信息被泄露后,侵权人利用人工智能系统可以轻易分析出特定自然人的画像,甚至能够对特定自然人的心理和行为进行预判,进而实施犯罪活动。3.数据歧视和算法歧视人工智能深度学习的运行模式,是通过模拟人脑的神经元建立神经网络,数据输入后经过算法黑箱输出算法结果,产生人工智能决策。3人工智能算法黑箱具有技术上的复杂性,人工智能算法的设计、开发、应用由不同程序员完成,各个研发主体的工作是编写源程序,即机器可识别的由“0”和“1”组成的代码,而源程序和数据如何在机器内部运算,这是赋予机器源代码的程序员也无法解释的问题。5因此,人工智能系统可能会因为人类无法解释算法黑箱而造成更大的伤害。机器学习存在“算法黑箱”以及不可解释性,导致人工智能技术天然存在内在局限性,人工智能决策偏差难以消除。人工智能在选择和分析数据时,具有特定的价值倾向和价值选择性,其价值偏差可能是赋予其源47 2023.7蔡秉坤,徐小壘.人工智能应用中数据安全的法律规制分析代码的程序员自身的价值选择或价值偏差,也有可能是输入数据偏差所致,如互联网数据收集到的更多是我国经济发达地区、青年网民的数据特征,而边远地区和老年人群的数据特征无法全面覆盖,最终导致人工智能决策缺乏公平性。(二)企业数据安全风险1.数据垄断存在于人工智能领域的企业数据安全风险,最主要的是数据垄断问题。随着互联网和人工智能的发展,数据逐渐资源化、商品化,成为企业重要的生产要素。数据具有巨大的潜力,可以触发更高效的业务运营,现代经济活动、创新、增长都依赖于数据7,企业数据权属问题逐渐显露。企业通过各种人工智能端口收集了大量个人数据,部分企业通过“算法共谋”形成了事实上的垄断状态,导致初创企业和研究机构在算法设计和优化过程中无数据可用,损害了人工智能行业整体的竞争、发展。2.数据利益冲突有学者认为,由于企业通过人工智能端口收集用户个人数据几乎没有成本,却能因此获得巨大经济利益,因此导致了数据收集者和数据提供者之间的利益不平衡。8也有学者认为,企业收集数据并非没有付出成本,数据企业本身收集、存储个人数据也需要付出相应的成本,其需要投入成本研发各种人工智能产品和系统,并向用户提供相应的服务,如百度地图、滴滴等智能软件系统。9因此,企业免费提供其投入大量成本研发的智能产品服务,是其收集、利用个人数据所支付的合理对价,符合公平原则。9以上两种观点的对立,本质是数据权属不明所导致的数据产权争议问题。个人数据商业化利用过程中造成了数据权力异化,企业与企业之间,企业与用户之间的利益冲突无可避免。三、人工智能应用中数据安全的法律规制分析人工智能应用中,固然存在数据安全风险问题,人工智能的发展必然会产生安全隐患,但是人们不能为了保护数据安全而因噎废食,从而选择不使用或者不发展人工智能,这并不能从根本上解决问题,并且谁都无法忽视人工智能创造的巨大经济价值和便利。为了从根本上解决人工智能创造的经济价值和数据安全风险之间的矛盾,国内外的法学家们试图利用法律对其进行规制和平衡,但是这些法律路径并不能完全适用人工智能领域的数据保护,都或多或少存在局限性。(一)个人数据安全的法律规制人工智能领域的个人数据保护沿袭了一般数据保护的路径,即个人数据的私法保护,主要有隐私权路径保护和财产权路径保护。1.隐私权规制采用不同的法律保护路径,那么其保护的方式也自然不同。个人数据隐私权保护路径,主要是将个人数据纳入民法侵权责任的保护范围,通过侵权诉讼解决人工智能领域个人数据信息被侵犯的问题。1由于个人数据可以识别出特定自然人的身份信息,从而确定特定的自然人,并且人工智能可以通过个人数据窥探个人隐私。因此,人们自然而然想到通过隐私权这一绝对的人身权利保护个人数据这一法律路径。9但是此路径有其天然的弊端,并不适用于人工智能领域的个人数据保护。首先,我国民法典尚未将个人数据进行确权,而是将其视为防御性利益予以保护10,因为并没有明确的侵权客体,因此难以将其纳入侵权法的规制之中。如果将个人数据权益纳入隐私权这一人身权利之中,有可能通过传统的隐私权侵权进行法律规制,如将可以识别自然人身份信息的个人数据纳入隐私权保护之中。但人工智能领域的有些数据并不涉及个人身份信息,如经过脱敏处理的匿名化的大数据,收集、分析、存储、披露这些数据,不会直接对个人隐私或其他相关权利造成侵害,因此并不完全适用隐私权的保护。11其次,侵权主体难以确认。在传统的隐私权侵权中,侵犯隐私权的主体具有单一性或特定性,但是在人工智能的算法黑箱中,侵犯隐私权的过程具有复杂性、系统性,隐私权受侵害的威胁常常涉及多个主体11,难以辨认真正的侵权主体,也就无法确认侵权行为与损害后果之间的因果关系,以及侵权主体的主观过错。因此,不满足侵权责任的构成要件,隐私权的保护路径在人工智能领域难以适用。48 2023.72023年第7期科技政策与管理再次,欧盟通用数据保护条例认为,个人数据隐私权保护的重点是通过明确个人对数据信息拥有一定的权利(如收集数据的知情同意权、数据删除权、限制处理权等),从而增强个人对其个人数据的控制能力,实现对个人隐私的保护。12个人数据隐私权保护,通过明确个人权利确实起到了保护个人数据隐私安全的作用,但是其对个人数据存在保护过度的风险。有经济分析研究表明,通用数据保护条例并没有充分实现个人隐私保护和数字经济发展之间的平衡,总体而言,该条例的实施对欧盟数字经济的影响是负面的。12-13最后,中华人民共和国个人信息保护法明确规定,处理个人信息应当取得个人同意,基于个人同意处理个人信息的,个人有权撤回其同意意在赋予个人包括知情权、决定权、撤回权、更正权、删除权等在内的多项个人信息权。在一般的个人信息保护中,这些规定可能起到一定的规制作用,但在人工智能领域,实现以上个人信息权并不现实。以知情权为例,在使用人工智能时,不可能每一步操作都经过个人的知情同意,即使有些人工智能系统在用户使用前设有隐私声明或用户协议,那也只是高度格式化的隐私条款,“事实上几乎没有人有时间、能力或决心浏览一遍人工智能应用中复杂的条款和知情同意的条件,更不用说要对每次给定的同意书都进行浏览。”14用户面临要么选择全部拒绝而无法使用人工智能

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开