温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
ChatGPT
生成
AI
算法
安全
风险
治理
路径
研究
C o m m u n i c a t i o n&I n f o r m a t i o n T e c h n o l o g y N o.4.2 0 2 3通信与信息技术2 0 2 3 年第4 期(总第2 6 4 期)C h a t G P T 生成式A I 的算法安全风险及治理路径研究高俊安徽大学法学院,安徽合肥2 3 0 0 3 9摘 要:针对生成式A I 发展要求,基于算法固有的“黑箱”问题,分析了当前生成式A I 算法安全所面临的风险,并从健全算法透明体系、加强算法伦理建设、完善算法问责机制等三个方面提出了加强算法安全管理的对策建议。关键词:C h a t G P T;生成式A I;算法安全风险;法律规制中图分类号:T P 1 8;F 4 9文献标识码:A文章编号:1 6 7 2-0 1 6 4(2 0 2 3)0 4-0 1 2 2-0 41 问题的提出2 0 2 3 年4 月中国国家互联网信息办公室发布的生成式人工智能服务管理办法(征求意见稿)指出,生成式A I是“指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”。C h a t G P T 是当前生成式A I 发展的前沿应用,其聚焦于数据、算法和算力之间的统筹协调,代表了弱人工智能向强人工智能的转变,实现了人工智能在内容生成上的互动性、通用性和创造性凹。与原有的弱人工智能相比,生成式A I 属于具有颠覆性的强人工智能,其并非局限于技术工具属性上的提升,更体现在法律伦理等社会领域的显著影响。一方面,以C h a t G P T 为代表的生成式A I 在自然语言交互处理中具有技术优势,其应用场景广泛且运作效率极高,能够有效促进社会经济的发展;另一方面,生成式A I 的突破性成果也引发了诸多危机,从技术垄断、知识产权归属、数据信息安全等法律问题到人机关系重构、人类主体性危机等社会伦理风险。当前学术界已关注到以C h a t G P T 为代表的生成式A I 所潜藏风险并提出对应的治理方案,其主要集中在数据安全、知识产权侵权、公共管理风险等领域2 。算法在理论上具有技术中立性,其本身无法做出社会学意义上的伦理道德判断,算法技术的内涵与价值往往反映在特定领域或特定事物的运作之中。算法作为生成式A I 发展运作的关键要素之一,其具有明显的双重性影响,应予以必要的规制研究。一方面,算法具有促进生成式A I 创新演进的基础性作用,伴随着算法技术的革新,它可以提高产品服务的效率并助力于应用的强智能性与创造性;另一方面,算法亦存在阻碍生成式A I 稳定发展的风险,其固有的“算法黑箱”将导致生成式A I 应用在技术层面和社会层面的安全风险。基于此,从大数据时代背景下“算法黑箱”出发,聚焦于以C h a t G P T 为代表的生成式A I 算法安全风险,并提出构建适应我国生成式A I 算法安全的法律规制路径,以期推进生成式A I 的革新与应用。2 生成式A l 的算法安全挑战作为当前通用的算法技术,“算法黑箱”是指主体无法完全理解人工智能算法决策的过程,亦无法预测算法决策的结果 3 。在大数据时代背景下,伴随着算力的不断发展,科技公司平台利用大数据集合和智能算法技术驱动生成式A I 的迭代更新,但固有的“算法黑箱”问题往往引发一系列生成式A I 算法安全风险。2.1 生成式A I 的算法透明风险算法透明是指算法服务提供者应当公开披露其算法的基本原理、逻辑、操作规则、运作过程及决策方式。生成式A I 的算法透明风险主要体现于生成式A I 服务提供者在生成式A I 产品的开发与使用过程中无法对其算法运行进行有效的解释与公开。生成式A I 算法的透明度风险核心在于其算法可解释性的缺位。理论上,算法可解释性是主体与算法模型之间的关键接口4。一方面,算法可解释性应当实现开发者对人工智能模型算法在运作过程中的全面监管并对算法瑕疵进行针对性修改;另一方面,算法可解释性在预测人工智能模型运作结果上应有积极作用,这将极大程度提高人工智能模型的可行性和安全性 9。从实践来看,生成式A I 的对话模型在技术系统内部的运作方式并不透明,以大语言模型为核心的C h a t G P T 在数据处理及决策过程亦处于“黑箱”状态6。诚然,近年来可解释人工智能快速发展,产生了 以模型为中心的透明”与“以用户为中心的透明”等算法可解释性技术收稿日期:2 0 2 3 年6 月1 4 日;修回日期:2 0 2 3 年6 月2 3 日1 2 2人工智能C h a t G P T 生成式A l 的算法安全风险及治理路径研究方法,这为打开“算法黑箱”提供了基本的算法透明原则四。但目前尚无完整的技术方案对“算法黑箱”进行全面的算法解释。基于此,以C h a t G P T 为代表的生成式A I 在技术系统内部存在算法可解释性较低的算法透明困境,其在涉及国家安全、政府行政、企业决策等高风险领域应用时将面临严重的安全风险,而在普通用户日常低风险领域应用时亦面临模型决策结果的难以验证及可靠性低等风险。2.2 生成式A I 的算法偏见风险算法偏见是指在计算机实验全流程中,对某些个人或群体、信息内容等产生不公平结果的系统性和可重复性错误 8。生成式A I 的算法偏见风险主要体现在产品开发和运行环节,生成式A I 对特定主体或特定内容产生可重复的偏向性不公平结果。以C h a t G P T“机器学习+人工标注”的算法技术为例,其算法偏见风险往往集中于产品开发更新过程中算法本身存在的先天性偏见和产品运作过程中基于海量人机交互所形成的后天性偏见J。C h a t G P T 作为深度机器学习的生成式A I代表,其算法技术本身具有中立客观性,而它的算法偏见往往受到开发者与使用者的主观偏好影响。具体而言,一方面,C h a t G P T 的算法设计者往往存在主观偏好,其对C h a t G P T 算法模型的初始设计存在偏向选择,最终反映于模型输出的偏向结果;另一方面,人工标注是C h a t G P T 深度学习的辅助机制,人工标注者将相关数据进行识别、解读与矫正,针对其中错误、违法的数据予以排除,对合法合理的数据予以验证通过,人工标注 往往反映了人工标注者的主体偏好,这将导致C h a t G P T 深度机器学习后的算法偏见风险提升。此外,C h a t G P T 的机器学习亦体现于算法模型与用户的深度交互上,伴随着用户主体数据输入的涉及偏见、歧视等恶意误导,这可能使得C h a t G P T“无意”中学习了此类负面算法,进而提供相关违反法律道德伦理的输出结果。2.3 生成式A I 的算法妨害风险算法妨害是指因计算能力的社会不公正使用引发的算法危害成本在社会层面的不当外化4。生成式A I 的算法妨害风险主要体现在生成式A I 算法决策导致的负面社会成本及对应的责任承担主体。一方面,生成式A I 算法决策导致的负面社会成本高。生成式A I 能够通过连续的人机交互系统在特定情境或特定问题中对用户进行隐蔽、高效地操纵与影响,这将造成输出内容的算法妨害。以C h a t G P T 的算法决策为例,研究人员向未经安全调试的C h a t G P T-4 模型提出生成虚假信息或者如何操纵他人的输出请求时,C h a t G P T-4 能够迅速输出符合特定问题的算法结果,并根据研究人员后续的设定补充进行针对性地修正。基于算法的智能和中立性,生成式A I 能够在用户的特定命令下输出虚假信息或者违法内容,这将直接导致用户个人或者相关主体遭受到算法的控制。另一方面,生成式A I 算法妨害的责任承担主体不明。基于前述,用户个人或者相关主体容易遭受到算法的控制,而这种控制能力恰恰是法律责任承担的重要因素。如果用户滥用生成式A I 产品,其作为“算法决策的控制者”,显然应当对输出结果导致的损害事实承担法律责任;而如果用户正常使用生成式A I 产品但由于算法的原因(系统漏洞或者错误)导致输出了具有负面损害的结果,那么此时“算法决策的控制者 并非用户,而应该是产品运营者。前者在理论上无争议,而后者却因算法黑箱的不透明性而存在法律因果关系证明的困难。倘若以 制止危险的安全保护义务 作为运营者承担法律责任的理由,这将无限扩大运营者的安全责任,最终导致“运营者或者技术开发者承担所有技术风险”的一刀切式困局。3 构建生成式A l 的算法安全框架3.1 健全算法透明体系,提高生成式A I 的算法可解释性针对生成式A I 运行过程中生成式A I 的算法透明风险,应当坚持技术提升与规范管理的原则,从技术与规范两个方面入手来强化对算法决策之监管,努力提高算法的可解释性。一方面,积极推进算法审查标准和算法备案制度。生成式A I 的算法审查应坚持形式审查与实质审查相结合:形式审查指所有生成式A I 产品在投入市场运营前均需通过有关监管部门的算法审查并出具相应的审查意见;实质审查指有关监管部门应当着眼于生成式A I 算法的内在本质,集中于数据审查、算法参数审查、代码逻辑结构审查等方面。此外,生成式A I 算法实质性审查的具体内容和结果需要进行形式上的固定算法备案。生成式A I 算法备案有助于监管部门掌握生成式A I 算法的底层逻辑,以便提高其对产品的监管能力,便于后续监管活动的开展9 。另一方面,充分落实生成式A I 提供者的告知与算法解释义务。首先,生成式A I 提供者需要在用户使用算法模型之前,告知用户算法决策的基本流程及产品算法潜在的特殊风险并取得用户的同意许可;其次,生成式A I 提供者的算法告知义务需采取严格履行方式,即“以显著方式告知用户”且符合“适当的公示方式”,而这涉及算法可解释性的提升;再次,生成式A I 算法透明风险中的算法解释义务往往属于外部解释,即有条件有范围的算法信息可视化披露,让用户能够准确理解算法决策过程与结果,并以此建立公众对生成式A I算法模型的信任;最后,生成式A I 提供者的算法解释义务需要经过明确的立法规定,而不能局限于行业标准和技术原理之中,具体可在互联网信息服务算法推荐管理规定与生成式人工智能服务管理办法(征求意见稿)等规范中推进算法告知与解释义务规定的完善。1 2 3通信与信息技术2 0 2 3 年第4 期(总第2 6 4 期)3.2 加强算法伦理建设,防范生成式A I 的算法偏见风险生成式A I 的算法偏见风险根源于生成式A I 高智能下的算法伦理意识薄弱,存在重科技、轻伦理的形式特征。对此,我国亟待加强生成式A I 模型的算法伦理建设,防范生成式A I 的算法伦理失范。首先,坚持生成式A I 算法的福祉原则。一方面,生成式A I 提供者在算法开发时,应当保持算法技术的中立性且使其符合人类社会的主流道德伦理,以此保持产品在社会福祉上的张力。另一方面,生成式A I 提供者在模型的 人工标注上应保持必要的动态监管,即承认算法在运行过程中客观存在的技术偏差,并采取连续、多重的动态校正来消除偏见风险。其次,明确生成式A I 算法的伦理准则。对此可参考既有的金融科技平台算法产业在算法管理、研发、供给与使用上的伦理准则1 0 。第一,生成式A I 的算法管理者在进行战略设计、技术标准制定及自我监督管理等行为时,应当坚持审慎包容的原则,既要防范潜在的算法失控风险,又要保持算法的包容性和开放性。第二,第二,生成式A I 的算法研发者在从事算法研究开放时,应当尊重社会公德与公序良俗,提高算法的安全和质量,尽量克服自身在伦理上的主观偏好,保持算法技术的中立。第三,第三,生成式A I 的算法供给者从事产品服务的运营时,应当尊重市场与用户的选择,加强算法服务的质量管控,保证用户的产品体验。第四,第四,生成式A I 的用户在产品的操作与使用环节,应当遵循合法合理使用,避免非法恶意滥用。最后,推进我国生成式A I 算法伦理委员会的建设。一方面,坚持政府在生成式A I 算法伦理建设中的主导地位,由政府牵头设立生成式A I 算法伦理委员会,建立算法审查、价值判断、风险评估等机制,助力生成式A I 平台的算法自治。另一方面,生成