温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
应当
人工智能
伦理
规范
实践
策略
探析
薛桂波
第 39 卷第 1 期2 0 2 3 年1 月自 然 辩 证 法 研 究Studies in Dialectics of NatureVol 39,No 1Jan,2023 科技与社会 文章编号:1000 8934(2023)1 0088 09从“应当”到“是”:人工智能伦理规范实践策略探析薛桂波1,赵建波2(1 南京林业大学 马克思主义学院,南京 210037;2 宿迁市电子商务产业园区管委会,江苏 宿迁 223800)收稿日期:2022 3 16基金项目:国家社科基金重大项目“负责任的人工智能及其实践的哲学研究”(21063)。作者简介:薛桂波(1971),女,江苏泗阳人,哲学博士,南京林业大学马克思主义学院教授,硕士生导师,主要研究方向:科技伦理;赵建波(1982),江苏泗阳人,硕士,任职于江苏省宿迁电子商务产业园区管委会,主要研究方向:人工智能研发与管理。摘要:随着人工智能的快速发展,各国各界均积极构建人工智能伦理规范和价值原则,力图促进人工智能向造福人类的目标发展。但是长期以来,伦理规范与实践的结合往往采取“是 应当”视角下的“应用”模式,将“上游”伦理规范直接介入“下游”实践,不可避免地存在转化脱节、效率不高等问题,难以适应高度复杂的人工智能实践。在此背景下,在从“是”到“应当”的规范构建基础上,应重视如何从“应当”到“是”的转化,通过具体机制、工具和做法将人工智能伦理规范转化为实际的伦理行动,并通过制度和教育等途径不断提升人工智能伦理规范实践效能。关键词:人工智能;伦理规范;实践;多元共建中图分类号:N031文献标识码:A一、“应当 是”视角下的人工智能伦理规范作为新一轮科技革命的核心驱动力量,人工智能迅速发展并日益对人类经济和社会生活产生深远影响,同时也因其巨大不确定性和风险性而引发前所未有的伦理关切。近年来,各国各界均积极探寻人工智能伦理规范和价值原则,力图促进人工智能向可信、负责、造福人类的目标发展。2017 年 12月,美国电气电子工程师协会(IEEE)自主与智能系统伦理全球倡议项目向全球发布第 2 版“合乎伦理的设计”白皮书(Ethically Aligned Design,V2),倡导实现合乎伦理地设计、开发和应用人工智能技术1,旨在规范人工智能在设计上合乎道德标准。欧盟人工智能专家委员会于 2019 年 4 月正式发布可信赖的人工智能伦理准则(Ethics Guidelinesfor Trustworthy AI),积极提升社会对人工智能产业的信任2。中国国家新一代人工智能治理专业委员会于 2021 年 9 月发布新一代人工智能伦理规范,包含六项基本伦理规范和人工智能管理、研发、供应、使用等特定活动的 18 项具体伦理要求,为从事人工智能相关活动提供了伦理指引。3 2021年 11 月,联合国教科文组织正式通过首份人工智能伦理问题建议书,目的在于促进人工智能为人类、社会、环境以及生态系统服务。4 2022 年 3 月,我国发布 关于加强科技伦理治理的意见,就科技伦理治理的责任主体及体制机制等做出了明确规范,提出了伦理先行、敏捷治理等基本要求,为人工智能伦理治理指明了“应当”的价值方向。在此背景下,如何将人工智能伦理规范之“应当”向实践之“是”转化,提升其实际的伦理效力,必然是推进人工智能伦理治理的一个重要环节。然而,在人工智能伦理领域,长期以来普遍存在着抽象的伦理原则与人工智能算法的设计、使用等具体实践之间连接和转化的障碍问题5,人工智能伦理曾一度在公共政策领域中仅被看作是一种新颖的概念而已6。早在 20 世纪 40 年代,人工智能研究者就已经意识到了算法的伦理关涉,但这一主题真正引起政策制定者、监管者和立法者的关注却非常滞后。7 尤其是对于从伦理到实践的转化问题,人们主要采取的是将伦理规范从理论“上游”向实践“下游”进行“应用”的模式,抽象的伦理概念、88DOI:10.19484/ki.1000-8934.2023.01.022从“应当”到“是”:人工智能伦理规范实践策略探析原则直接介入到具象的动态实践中,结果常常因耦合性不够而导致伦理规范向实践转化脱节、效率不高等问题。这种情况主要 与 传 统 科 技 伦 理 中“是 应当”视角下的规范应用模式有关,该模式主要做法是:运用规范伦理学方法、关注如何从“是”中探索“应当”,从伦理理论或核心价值出发进行相关科技伦理规范和伦理准则的构建,并直接以伦理理论和基本伦理规范为参照标准对具体的科技伦理问题进行反思、辨析和应对。这种将理论向实践“应用”的模式对于科技活动具有一定的价值导向和规约的作用,能够为科技伦理问题的分析和解决提供价值依据和论证基础。但是,一般而言,伦理理论既无绝对的自明性和完满性,也未必能适用于层出不穷的科技伦理问题8,以伦理理论为基础构建的基本伦理规范直接向特定的科技行动领域的“应用”,也往往会由于对具体的、情境化的科技实践缺乏操作性和弹性调整空间而导致伦理规范之“应当”与科技实践之“是”的疏离和脱节,在新兴科技时代,这种思维进路和规范应用模式显然无法有效应对复杂多变的科技伦理问题。当前,人工智能迭代更新迅速推进,其关涉的伦理问题已经在很大程度上突破了传统伦理的认知框架,“自上而下”的伦理规范应用模式难以适用于人工智能伦理治理:一是将伦理规范直接向技术实践领域应用,一线的人工智能从业者无法根据自身技术情境调整和设置具有可操作性的伦理规范,也无法参与到伦理规范制定的过程之中,往往出现伦理规范缺乏灵活性而失去实践效力;二是伦理规范过于抽象和基础,仅仅作为一种基本的价值方向提供给人工智能实践领域,缺乏具体的易于理解和可操作性的行为规范和执行规程,例如,在避免“算法偏见”的技术设计场景中,虽然有伦理规范进行偏见问题的提示,但一线从业人员却可能无法获取具有针对性的伦理方法和提供解决偏见的可行性操作路径,结果导致伦理规范在技术实践中无法真正发挥其价值型塑和伦理动力的作用。因此,在从“是”到“应当”的规范确立基础上,还应进一步关注从“应当”到“是”的规范转化问题,探讨将人工智能伦理规范和其所指向的实践问题密切衔接、内在融合的实施方式和操作框架,不仅关注“应当做什么”,更要了解“具体怎么做”,才能更好地弥合理论的规范场域与行动的实践场域之间的“鸿沟”。从研究现状来看,近年来国内学界对人工智能的研究逐步拓展和深化,从对其进行哲学反思到伦理规范实践转化的政策思考等持续推进。例如,强调人工智能伦理规范的阐释和构建9,从历史唯物主义视角思考人工智能与人类的关系10,主张从人机关系优化维度促进人工智能为维护社会公平、正义服务11,关注人工智能的责任伦理12、风险伦理以及主体性异化等问题13,从外在主义进路(批判人工智能负面伦理价值)和内在主义进路(关注人工智能正面伦理价值)探究人工智能伦理问题14,立足人机关系开展人工智能的价值校准和伦理调试15,强调人工智能伦理治理的内在路径16 并注重从原则向行动推进17,主张成立人工智能伦理委员会并从伦理性和安全性等方面对人工智能进行评估18,学习借鉴 IEEE 人工智能伦理规范实施机制19 等,这些研究为进一步探讨人工智能伦理规范实践转化提供了重要基础。国外学界在对人工智能哲学研究的基础上尤为关注人工智能伦理规范的实践落实问题,有学者结合机器道德指南对人工智能伦理问题进行分析20,也有学者提出五项人工智能伦理原则及其 20 条具体实施建议21 等,但解决机制尚待进一步深化研究。近年来,更多研究关注人工智能伦理治理中的多学科合作和责任问题22、人工智能技术的嵌入式伦理框架及其操作方法23、对人工智能伦理指南的评估24、人工智能伦理规范实践操作模式7、人工智能伦理嵌入实践的实施策略25 等,凸显出人工智能伦理规范实践策略研究的理论前沿性和实践重要性。就本质而言,科技伦理治理力图促进伦理道德与科技发展实现动态统一、系统优化和整体协调,是侧重于实践并从国家顶层政策设计对科技发展进行规范、协调和管理的一种实践伦理战略。而人工智能伦理治理,必然需要基于“应当 是”的视角搭建伦理规范与技术实践之间联结的桥梁,使人工智能伦理规范具有可操作性,将其全面嵌入人工智能研发、应用和管理等全部过程,将人工智能伦理规范转译为技术实践中的具体机制、工具和做法,真正转化为人工智能实践中具体的伦理行动,提升人工智能伦理规范的实践效力。二、人工智能伦理规范实践转化策略基本框架人工智能伦理规范是促进人工智能合理发展98自然辩证法研究第 39 卷第 1 期的有力保障,通过成文的伦理规范,实践者在开展与人工智能有关的项目时能够遵循明确的可行依据,而研究伦理规范在具体应用中如何实施必然具有重要现实意义。19 为了使伦理规范的实践转化顺利推进,需要对整个过程进行整体设计:在实践挑战分析、问题识别基础上得出理论成果(例如伦理规范、行为干预方法等);针对具体实践、厘清实施活动的决定性因素,以此为基础确立可操作性规范(具体应用规范和行为指南);确定实践策略,设计实施过程和方法;对实施过程和结果进行反馈、评估;预期实践的可持续发展等。26 以下对这个基本框架和环节加以进一步解释:1 面向人工智能伦理风险确立基本伦理规范根据人工智能伦理挑战和伦理风险的分析,制定基本伦理规范和伦理原则。例如:IEEE 提出人权、福祉、问责、透明、慎用等伦理原则,强调人工智能的发展不应只是实现功能性目标和解决技术问题,而且更重要的是应造福人类;欧盟人工智能伦理准则从人的能动与监督、可靠性和安全性、隐私与数据治理、透明度、多样性、非歧视性和公平性、社会与环境福祉等方面强调了人工智能应向服务社会的方向发展;我国新一代人工智能伦理规范 提出增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等基本伦理规范和具体伦理要求。尽管各国伦理原则和伦理规范的内容略有不同,但均包含了最为核心的伦理规范,即可靠(accounta-bility)、责任(responsibility)、透明(transparency)等,被称为人工智能的 AT 原则。25 这是基于人工智能发展所带来的伦理挑战而提出的基本伦理价值准则和伦理规范,构成人工智能各个领域具体伦理规范的基础和前提,通过这些伦理规范的发布和传播,可以在人工智能行业及整个社会营造关注、参与人工智能伦理问题讨论和决策的社会氛围。2 基于基本伦理规范确立具体应用伦理规范我国 新一代人工智能伦理规范 强调,在遵循基本伦理规范基础上,“各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。”3 也就是说,在确立基本伦理规范的基础上,应根据人工智能实践领域中的具体情境和技术条件,制定具体应用伦理规范和行为准则,其较基本伦理规范而言更接近具体人工智能实践情境和复杂条件,更具有操作性和行为指向性。例如,在“隐私与数据管理”这一基本伦理规范基础上,可以根据技术实践情境进一步制定“知情同意”“严格管控 AI 数据访问”“禁止非法利用个人数据信息”“保证数据的完整性”等行为规范。在推进人工智能研究与开发工作中,人工智能关涉的伦理问题要成为每一工作环节的重点考虑因素,具体应用伦理规范要契合于技术实践中的实际情况和具体操作特点才能更好地向实践转化。3 伦理规范在具体科技实践中的实施这一阶段可以采用初步实验的方式进行伦理规范的实施测试,组建跨学科核心团队并给予他们项目组织的额外资源和权限19,例如,在人工智能科技企业“知情同意”这一伦理规范的实施过程中,对于人工智能一线从业人员,需要考虑的是如何将这一规范用简单、直接、易懂的方式让他们知悉和理解并将其嵌入人工智能算法设计、开发和应用等工作中,并成为研发工作的一个内在维度和重要组成部分,力图保障利益相关者“拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行”3。同时,需要明确具体的人工智能伦理规范与既有的人工智能研究与创新相关政策的一致性,促进人工智能相关机构提供执行伦