Communication&InformationTechnologyNo.4.2023通信与信息技术2023年第4期(总第264期)ChatGPT生成式AI的算法安全风险及治理路径研究高俊安徽大学法学院,安徽合肥230039摘要:针对生成式AI发展要求,基于算法固有的“黑箱”问题,分析了当前生成式AI算法安全所面临的风险,并从健全算法透明体系、加强算法伦理建设、完善算法问责机制等三个方面提出了加强算法安全管理的对策建议。关键词:ChatGPT;生成式AI;算法安全风险;法律规制中图分类号:TP18;F49文献标识码:A文章编号:1672-0164(2023)04-0122-041问题的提出2023年4月中国国家互联网信息办公室发布的《生成式人工智能服务管理办法(征求意见稿)》指出,生成式AI是“指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”。ChatGPT是当前生成式AI发展的前沿应用,其聚焦于数据、算法和算力之间的统筹协调,代表了弱人工智能向强人工智能的转变,实现了人工智能在内容生成上的互动性、通用性和创造性凹。与原有的弱人工智能相比,生成式AI属于具有颠覆性的强人工智能,其并非局限于技术工具属性上的提升,更体现在法律伦理等社会领域的显著影响。一方面,以ChatGPT为代表的生成式AI在自然语言交互处理中具有技术优势,其应用场景广泛且运作效率极高,能够有效促进社会经济的发展;另一方面,生成式AI的突破性成果也引发了诸多危机,从技术垄断、知识产权归属、数据信息安全等法律问题到人机关系重构、人类主体性危机等社会伦理风险。当前学术界已关注到以ChatGPT为代表的生成式AI所潜藏风险并提出对应的治理方案,其主要集中在数据安全、知识产权侵权、公共管理风险等领域2]。算法在理论上具有技术中立性,其本身无法做出社会学意义上的伦理道德判断,算法技术的内涵与价值往往反映在特定领域或特定事物的运作之中。算法作为生成式AI发展运作的关键要素之一,其具有明显的双重性影响,应予以必要的规制研究。一方面,算法具有促进生成式AI创新演进的基础性作用,伴随着算法技术的革新,它可以提高产品服务的效率并助力于应用的强智能性与创造性;另一方面,算法亦存在阻碍生成式AI稳定发展的风险,其固有的“算法黑箱”将导致生成式AI应用在技术层面和社会层面的安全风险。基于此,从大数据时代背景下“算法黑箱”出发,聚焦于以ChatGPT为代表的生成式AI算法安全风险,并提出构建适应我国生成式AI算法安全的法律规制路径,以期推进生成式AI的革新与应用。2生成式Al的算法安全...