温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
人工
道德
承受
社交
机器人
能动性
论证
袁晓军
2023 年 4 月第 2 期 第 23 卷昆明理工大学学报(社会科学版)Journal of Kunming University of Science and Technology(Social Sciences)Apr.2023No.2,Vol.23收稿日期:2023 01 17基金项目:国家社会科学基金重大项目“负责任的人工智能及其实践的哲学研究”(21ZD063);国家社会科学基金项目“人工智能社会实验的伦理问题及对策研究”(22BZX039)第一作者:袁晓军(1998),女,硕士研究生,主要从事人工智能伦理研究。通信作者:王淑庆(1986),男,副教授,博士,主要从事行动哲学和人工智能伦理研究。doi:10.16112/ki.53 1160/c.2023.02.123人工道德承受性:社交机器人的能动性与承受性论证袁晓军,王淑庆(湖南师范大学 公共管理学院,湖南 长沙 410081)摘要:智能机器人是否拥有道德权利,是机器人伦理的核心问题之一。当前国内外学者主要探讨人工道德能动性问题,而人工道德承受性问题还未引起足够重视。社交机器人作为道德承受者是否可能,取决于道德能动性的扩展论证,而扩展论证的成立又与道德承受性的标准息息相关。当前道德承受性标准主要有属性解释进路和关系解释进路两种。在论证关系解释进路优于属性解释进路的基础上,重构人工道德承受性扩展论证,从而为社交机器人的道德承受性地位进行辩护。关键词:道德承受性;扩展论证;属性解释;关系解释;社会共同体中图分类号:TP242;B82 057文献标志码:A文章编号:1671 1254(2023)02 0052 08The Artificial Moral Patiency:An Argument of the Agencyand Patiency of Social obotsYUAN Xiaojun,WANG Shuqing(School of Public Administration,Hunan Normal University,Changsha 410081,Hunan,China)Abstract:Whether intelligent robots have moral rights or not is one of the core issues of robot ethics Atpresent,scholars at home and abroad mainly discuss the initiative of artificial morality,but the artificial moralpatiency has not been paid enough attention to The possibility of the social robot as a moral agent depends onthe extended argument of moral initiative,which is closely related to the standard of moral patiency At present,there are two kinds of criteria of moral paptency:attribute interpretation approach and relational interpretationapproach On the basis of demonstrating the superiority of relational interpretation approach to attribute interpre-tation approach,we reconstruct the extended argument of artificial moral patiency,to defend the moral patiencyof social robotsKeywords:moral patiency,extended argument,attribute interpretation,relational interpretation,social community在人类与机器交互越来越频繁的智能时代,人与社交机器人如何和谐共处,既是一个新颖的理论问题,也是一个难以回避的实践问题。除了法律和社会治理的研究,伦理学反思是一个更重要的维度,因为它具有更强的前瞻性与风险防范性。在人类与社交机器人的伦理关系上,一类基本的问题是社交机器人在人机交互中的道德地位问题。例如,社交机器人能否进行道德决策,它们可以拥有道德能动性(moral agency)吗?我们应该赋予社交机器人一定的道德权利吗?仅把社交机器人当作高级工具是不应该的吗?对这些问题的回答,甚至还形成了机器伦理学(Ma-chine Ethics)1 2 和机器人伦理学(obot Eth-ics)3 4 等新的伦理学分支。然而,当前国内外学界对社交机器人道德地位的研究,主要聚焦在人工道德能动性问题上,而对人工道德承受性(artificial moral patiency)问题还没有引起足够的重视5。在笔者看来,学者们对以道德能动性为核心的机器伦理学的过多关注,在某种程度上恰恰是人类中心主义的体现 它强调的是如何让社交机器人关怀我们,而不是我们如何道德地对待社交机器人。从实践上看,相比于能否把社交机器人看作道德行动者,是否要把社交机器人看作道德承受者,是一个更为现实的问题。那么,人工道德承受性是可能的吗?换句话说,我们应当在社交机器人的道德承受性问题上表现得慷慨大方吗?人工道德承受性的条件或标准又是什么?对这两个问题的回答是研究机器人权利以及机器人伦理相关问题的理论基础。一、道德承受性与构建人机文化在物理学中,承受性是指一个物体能够支撑或接受其他物体压力的特性。换言之,承受性总是跟压力联系在一起。如果把物体压力改为“抽象的压力”,如心理压力或目标任务压力,同样可以说承受性。譬如,当赞扬一个人“心理承受力强”时,就是指他对心理压力的承受能力强。类似地,道德承受性是指一个存在物或系统,有资格接受其他行动者(agent)的道德行动,即能够接受道德行动者对其进行道德关怀的特性。假如一个存在物确实值得道德关怀,就表明此存在物就具有道德承受性地位。在这个意义上,一个存在物或系统具备道德承受性,当且仅当,它有获得道德关怀的资格。“道德承受性”作为一个哲学概念,本来只是一个随附性的概念,因为它必须依赖于道德能动性而存在。事实上,它远不如“道德能动性”那么受人关注。所谓道德能动性,是指行动者有能力实施道德行动的特性。一个行动者是道德行动者,就意味着他的某些行动具有道德影响力,例如,出于道德理由而做出的行动就是道德能动性的施展。从道德地位上看,如果没有道德能动性,也就不会有道德承受性6。正如哈伊丁(M.Hajdin)所言,道德承受者(patient)是道德行动者的导出和补充概念,它是类比道德行动者而创造出来的一个概念7。那么,反过来说,如果没有道德承受性,道德能动性也就没有所施展的对象。可见,道德能动性与道德承受性一起,才构成了完整的道德地位概念。正因为这种关系,研究社交机器人是否具有道德承受性是道德地位不可或缺的一个重要方面。毋庸置疑,人类典型地具有道德承受性地位。那么,除了人类之外,其他存在物是否具有道德承受性?换句话说,如何判定一个存在物具有道德承受性?要回答此问题,必须探讨道德承受性的标准。从历史上看,道德承受性的标准的一个重大突破是从理性标准到感受性(sentience)标准的转变 它主要是环境伦理学和动物伦理学的贡献。在泰勒(A.Taylor)、辛格(P.Singer)等学者们看来,除了人类之外,生态环境和动物具有感受性,从而具有道德承受性,人们应当对它们施加道德关怀 8 9。试图把道德承受性范围从有生命之物进一步扩大到无生命的社交机器人上,就是机器人伦理学的目标之一。那么,社交机器人具有道德承受性吗?假如人们接受社交机器人具有道德承受性,就表明社交机器人具有一定的道德地位,那么,人们就不应当“伤害”它们。换句话说,社交机器人有道德承受性就意味着它是道德共同体中的成员,从而人类对社交机器人有某种道德关怀的义务。显然,接受这一命题,既有理论意义,又有现实意义。从哲学上说,它超出了传统伦理学的研究范围,势必引发哲学上的争论;在现实性上,如果承认这种观点,那么,在当下(以及未来)的人机交互中,人们就要承认人类对社交机器人具有伦理关系。相反,如果社交机器人根本不可能拥35第 2 期袁晓军,王淑庆:人工道德承受性:社交机器人的能动性与承受性论证Patiency 与 patient 相对应,即 patient 是指具有 patiency 的存在物。国内对 patient 的翻译主要有四种:承受体、承受者、接受者、客体。笔者更赞同前两种翻译,相应地,patiency 可翻译成承受性。能与人类进行交互和沟通,并且具有一定自主性的物理机器人。有道德承受性,人们就不必考虑机器伦理学是否是一门新的伦理学,也不用考虑以何种道德态度对待社交机器人,而只是单纯地把它看作人类的工具甚至奴隶10 63 74。以道德的态度还是非道德的态度对待社交机器人,对于构建人机关系与人机文化具有重要影响。在纯粹的工具文化中,人们使用社交机器人,仅仅是因为它能够帮助我们提高工作效率或供我们娱乐,在多数情况下是不需要考虑它的道德承受性地位的。正如博斯特罗姆(N.Bostrom)等人所认为的,一块岩石就没有道德承受性地位,我们压碎它不需要进行任何道德思量11。这种人机关系下形成的人机文化,更多地会是一种工具主义文化。工具主义文化在某种意义上可以凸显人的价值,但在道德上可能造成两个不利后果:一是容易引发人与人之间的冲突,因为人机关系在某种意义上是以机器为媒介的人与人之间的关系,如损害公共服务机器人就是对公共机构及至公众的伤害;二是会加强人们的非道德甚至暴力倾向,毕竟对机器的不友好态度有可能会移到对待人的态度上来,而人的德性具有较强的稳定性。反之,如果以一种道德的方式与社交机器人相处,则更容易形成一种人机友好型文化,它的前提之一是承认社交机器人具有道德承受性。不过,此观点面临的一个反驳:对社交机器人讲道德只会浪费有限的资源(包括情感浪费)10 63 74。笔者认为,此反驳只看到了不利的一面,而未看到人工道德承受性有利的一面和不可避免的一面:它既有利于构建人机友好型文化,还是人机交互未来发展必须要考虑的。如伴侣机器人、护理机器人等社交机器人,当它们具有高度的自主性,并在现实中与人类深入交互时,将其纳入社会共同体的范围并对它们进行道德关怀也不是天方夜谭。总之,人工道德承受性能否成立,对于构建合适的人机关系与人机文化(道德相关的或不相关的)具有根本性的意义。由上可见,在传统的道德哲学视域中,社交机器人是不可能具有道德承受性的,即人工道德承受性这个概念是不能成立的。要使人工道德承受性概念合法化,就必须扩展道德关怀的范围并给出哲学上的辩护,这个工作就是道德承受性的扩展论证(Extension Argument)。二、扩展论证及其核心理据凭什么要对社交机器人进行道德关怀?要回答这一问题,就必须给出人工道德承受性的理据(rationale)是什么,也即把道德关怀扩展到社交机器人的原理与理由是什么。换言之,试图论证人类应该对社交机器人进行道德关怀,就必须给出道德承受性的扩展论证。(一)道德承受性的扩展论证扩展论证最早出现在环境伦理学中,它试图论证人类对生态环境也有伦理关系,从而人类应当对生态环境进行道德关怀。比如,利奥波德(A.Leopold)对土地伦理的呼唤,后来就引发了环境伦理学中道德扩展论证的一个典型版本12:从人只是自然共同体中的一员,进而主张生态环境也应该受到道德关怀。类似地,对于社交机器人来说,道德承受性的扩展论证也有很多版本。综合各种具体的扩展论证,可以概括出一个完整的扩展