分享
存在论视角下人工智能的技术风险_郑杜浩.pdf
下载文档

ID:2362645

大小:1.25MB

页数:3页

格式:PDF

时间:2023-05-08

收藏 分享赚钱
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
存在 视角 人工智能 技术 风险 郑杜浩
12【摘要】人工智能的发展将会导致其自身的存在的升级,这使得人工智能成为具有全球性质的重要技术,其自身所携带的技术风险也从存在层次威胁人类生存。但是人工智能的技术风险不单单只有风险的一面,它给存在论研究指出了新的方向,并且使人对自身的存在方式有了新的理解。【关键词】人工智能;存在论;技术风险存在论视角下人工智能的技术风险郑杜浩(北京交通大学 北京市 100091)南方视点南方论刊2023 年第 4 期1956 年达特茅斯会议之后,人工智能的历史开始前进。从开始的只能进行部分简单的定理证明一步步发展到击败国际围棋冠军,乃至在日常工作上代替人完成一些复杂程度较低的工作,人工智能已经取得了越来越大的成就。人工智能的研究成果已经在社会上激起巨大的思想浪潮,人们对人工智能的关注度不断提高,各种对于人工智能的未来发展的预测层出不穷,其原因就是人工智能的发展已经进入了新的层次,也就是存在的层次。无论是超级人工智能的出现,还是对人体进行机械改造将人工智能融入人体,都将在存在论层次对人类造成巨大的改变。这同时也意味着潜在的技术风险的可怕,因为人工智能对人类影响范围之广和层次之深是前所未有的巨大,稍有不慎就会对人类的存在造成严重的危害,所以有必要从存在论角度分析人工智能的技术风险,其对于存在论自身的发展、人工智能的发展、人类内心的安定,都具有独特的意义。一、人工智能存在升级的未来英国数学家欧文古德(Irvin J.Good)在 1965 年就提出了超级人工智能的概念,他认为当人工智能超越所有人类智能活动后就应该将其称为超级人工智能。根据这种想法,卢克多梅尔提出了关于人工智能何时才能成为超级人工智能的观点,他将这个时间点称为人工智能奇点。实现奇点的重要条件是人工智能在设计人工智能本身的方面达到了创新标准,在这之后人工智能就能通过其远超人类的计算能力快速实现自我进化,从而在全方面彻底超过人类,成为超级人工智能,实现人工智能存在的升级。“存在升级指的是,一种存在变成了另一种更高级的存在。”1在科技进步日新月异的当下,人工智能的发展速度跨越式增长,伴随着计算机科学研究、认知科学、材料工程学等相关学科的进步,人工智能技术奇点的到来越来越有可能,超级人工智能的诞生不再是遥不可及的幻想。人们不得不思考,人工智能可能给人类带来的改变,“人工智能有可能改变或重新定义存在概念,有可能在存在论层面上彻底改变生命、人类和世界的存在性质。将给人类带来存在论级别的巨变。”2当然并不是所有人都认为超级人工智能是可以实现的,比较知名的有休伯特德雷福斯的人工智能不能做什么,该书从认识论、本体论等角度对乐观主义的人工智能思想进行了辩驳,认为人工智能只能处理事实,而不能涉及到人的创造自身及事实世界的能力。但是这种形而上的理论已经逐渐被人工智能的现实表现所击倒,目前人工智能已经在诸多领域超越人类,特别是在近几年,人工智能的发展更是突飞猛进,不仅在研究上人工智能已经可以创造自己的子代,而且在写作、音乐等艺术领域也展现出了优越的成果,可以说人工智能的存在升级的可能性已经超过超级人工智能不可能实现的可能性。理解人工智能的存在升级后不免会产生一个疑问,“为什么人类会试图创造一种高于人类、贬低人类地位甚至有可能终结人类的更高存在呢?”3这就涉及到人类自古以来就面对的一个事实,那就是对神明的信仰。就目前的科学研究来看,神明没有任何实际存在的依据,只不过是人内心中的幻想。神明作为同样高于人的存在,其被人类创造出来的原因就是人类创造出超级人工智能这一存在的原因。通过对这一疑问的解答,可以发现人工智能的存在这一事实不仅在客观世界影响人类的生活,其更是在精神领域触及到了信仰层面。这个问题具有重要的现实启示意义,加深了人工智能在存在论中的意义。二、人工智能存在升级引发的技术风险的严重性人工智能作为一种技术产物,其发展伴随着不可预测的技术风险。而人工智能本身又带有自我进步的潜质,再加上机器更新换代的速度远快于生物进化的速度,导致人工智能的技术风险比其他技术要更加危险且难以控制。(一)该技术风险的全球化性质彼得罗素曾经提过一种理论:“人类就像某种巨大的神经系统,一个全球脑,在其中,我们每个人都是个体神经细胞。人类社会可以看作一个巨大的数据集合、数据通信和数据记忆系统。我们将自己归集进了城镇群,正像神经细胞归集于巨大神经系统的神经中枢。连接神经中枢和个体神经细胞的是巨大的信息网络。”4随着科学技术的进步,世界各地已经被紧密地联系在一起,“全球脑”的理论也越来越贴合现实。其中联系全人类的神经网络正是现在极度发达的互联网系统,中国移动互联网发展报告(2022)显示,2021 年底,全13球上网人口达到 49 亿,大约占全球人口的 63%。事实上,超级人工智能在发展前景上几乎不可能以一种机器人个体的形式出现,其更有可能的存在方式应该是一种功能极度全面且发达的网络系统。通过网络,人工智能可以存在于人类社会的几乎任何一个位置,人类唯一远离人工智能的方法就是远离网络。然而这几乎是不可能的,即使个人抛弃了自己的私人网络设备,也依然处于公共网络环境之中,离开公共网络几乎就等于离开人类社会。由此可以得知,人工智能的存在升级将会覆盖全球范围,其对人类社会带来的机遇和风险也将会波及到全世界。(二)该技术风险的存在论性质面对人工智能带来的全球性机遇和风险,人们首先需要考虑的不是机遇而是风险,因为人工智能所能带来的技术风险是毋庸置疑的影响巨大。一些专家已经将人工智能的技术风险定义为存在性风险(existential risk),因为人工智能技术是一种涉及到思想的技术。法国思想家布莱兹帕斯卡曾说过:“人只不过是一根芦苇,是自然界里最脆弱的东西;但他是一根会思想的芦苇。宇宙可以轻松地将人毁灭,一团雾气、一滴水都足以致人于死地。然而,纵使宇宙毁灭了人类,人类却仍然要比世界万物高贵得多。因为人知道自己终有一死,也了解宇宙的秉性和优势,而宇宙对此却一无所知。因而,人类全部的尊严就在于思想。”5在黑格尔的理论中,人的存在性表现为作为最高层次存在的思想,由此导向了其理论核心绝对精神。当非人的人工智能同样拥有思想后,其对人类的风险就上升到了存在层次。(三)该技术风险的生存论转向在海德格尔之前,存在论内部始终有一条本体论的主线,其研究方向一直是追问存在是什么。而海德格尔在存在论研究中并不把重点放在这个问题上,他认为存在者和存在之间是密不可分的关系。他通过存在者应当怎样存在作为切入点,展开了对具体存在者“此在”的研究。虽然在海德格尔的存在论转变中依然还保留有传统本体论的影子,但是其已经开辟出了以具体事物为研究对象的生存存在论(existential ontology)。中国哲学家邹诗鹏对此这样认为:“当代哲学正在发生一场存在论转变,这就是从传统哲学的超验的、抽象的实体存在论(substantial ontology)到感性的、实践的生存论存在论的转变。生存论转向肇端于生存(主义)哲学,但其深远的意义却远未彰显出来。”6通过存在论的生存论转向,存在论研究的核心从本体转向“此在”,人工智能的哲学研究在存在论研究中有了理论基础,人工智能的技术风险可以从生存论角度进行分析。事实上,在人工智能研究领域一直存在一种关于人工智能的存在性风险言论,但是其一直没有被重视,大多数学者对此抱有两种看法,一种看法是人工智能的存在升级将会是遥远的未来的事情,对人工智能的技术风险进行思考无疑是一种自虐性的行为;另一种看法是人工智能其技术本身存在自限性,无论人工智能技术多么发达,其也要依靠人类才能存在,所以人工智能不可能像那些认为人工智能有存在性风险的学者所认为的那么严重。但是这些学者一般都同意人工智能的自我进化只是时间问题,尤其是近几年人工智能的发展更是使人们对意识到人工智能技术潜在的发展空间要远远超过人们过去的保守的想象,这也使得我们必须要考虑人工智能的技术风险的存在性威胁。尼克波斯特洛姆在他的著作超级智能中多次提到,人工智能可能会导致人类在未来遇到“存在性灾难”,波斯特洛姆将“存在性灾难”定义为“可能导致我们的灭绝或摧毁地球起源的智能生命潜力的威胁。”7詹姆斯巴拉特认为,“对于先进的人工智能,如今我们所处的位置一如 20 世纪 30 年代之于核裂变。如果我们像贸然引入核裂变那样贸然引入人工智能,恐怕全人类都无法存活下去。”8也许有的人认为即使人工智能升级为超级人工智能,人类依然在很多方面具有人工智能所不具备的优势,人工智能又怎么可能彻底控制人类呢?从另一方面说人工智能又为什么要危害它们的创造主呢?针对这两个问题,目前都有学者提出了相关意见。首先是第一个问题,可以用人类和大猩猩的例子来解决,大猩猩相对于人来说同样具备许多优势,例如大猩猩即使不通过运动锻炼自己,它也能自然而然地长出一身强壮的肌肉。然而大猩猩依然处于人类的控制之下,甚至要依靠人类的保护才能生存。其原因很简单,只人类比大猩猩更聪明这一项,就足够确立大猩猩和人类之间的地位关系了。而机器进化的高速度就决定了人工智能有一天会比人类要更聪明,所以人工智能是完全有可能控制人类的。关于第二个问题,詹姆斯巴拉特认为,基于人工智能和人类的本体差别,人工智能的动力肯定是与人类不同的,一旦二者不能相互包容,那么必然会导致冲突的发生,而存在层次上的冲突是不可能因为人类的创造主身份就得以避免的。面对人工智能的存在性风险,人类必须要在哲学和科学的基础上,根据计算机科学、认知科学、存在论研究等多种角度探索人类与人工智能的存在关系,发挥人类全部的智慧力量,提前做好准备应对危机的到来。三、人工智能技术风险之外的价值既然人工智能技术的存在性风险如此恐怖,为什么还要发展人工智能呢?有两个原因,一方面人工智能是人类科技发展的方向,因为人类发明的工具本身就具有代替人类部分劳动使人类更加轻松地达到自己想要的结果的性质,所以随着工具的进一步发展,其必然要涉及帮助甚至是代替人类思考的作用,人工智能的发展也就因此不可避免。另一方面人工智能的智能革命的出现可以预料到,其必然会给人类带来一个更加舒适的社会,人们的生活环境将会更加智能化、精细化、人性化,吴军博士在其智能时代一书中认为这可能是迄今为止人类文明史上最好的社会。不止如此,人工智能的发展在存在论研究上也能提供崭新的、更高层次的研究领域。(一)人工智能对存在论的指导作用在传统的存在论向生存论的转向过程中,研究的重点从抽象的存在转移成更加具体的存在者,但是即使完成了这样的转变,存在论也不过是把对终极实体的追求变成了对于世界逻辑结构的追求。这也是维特根斯坦在后期进行了语言学转向的原因,因为无论是存在还是“此在”都不够成为存在论的支撑。随着现代科学的进一步发展,尤其是相对论和量子论的提出,一种新的关系存在论逐渐出现。有学者这样认为,“关系实在论提出的直接根源是现代物理学革命引发的所谓 客(下转第59页)59诸多因素。而相关涉及传染病的影视剧也在一定程度上反映了现实中应对传染病的一些要素,具有一定的现实启示意义,一方面它们反映和体现了应对传染病的安全化途径,而另一方面这些影视剧也能加强公众对于传染病的防控意识,增强应对传染病疫情的能力。基金项目:国家社会科学基金项目“安全化视域下全球重大传染病防控与应对研究”(20BGJ014)参考文献:1Ole Wver.“Securitization and Desecuritization,”in Ronniie D.Lipschutz,ed.,On SecurityA.New York:Columbia University Press,1995:48.2 英 巴瑞布赞、丹麦 奥利维夫、丹麦 迪怀尔德.新安全论 M.朱宁,译.杭州:浙江人民出版社,2003:32-43.3 叶晓红.哥本哈根学派安全化理论述评 J.社会主义研究,2015(06):170.4 戴宁馨.试论公共健康伦理中的道德主体责任基于血疫:埃博拉病毒的故事的分析 J.开封教育学院学报,2019(09):20.5Didier Bigo.Security and Immigration:Toward a C

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开