分享
体育裁判人工智能化的正当性困境与应对_徐伟康.pdf
下载文档

ID:2736306

大小:1.55MB

页数:8页

格式:PDF

时间:2023-10-13

收藏 分享赚钱
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
体育 裁判 人工 智能化 正当 困境 应对 徐伟康
2022年(第42卷)第11期Vol.42,No.11,90-封三,2022体 育 科 学CHINACHINA SPORTSPORT SCIENCESCIENCE体育裁判人工智能化的正当性困境与应对徐伟康(清华大学 法学院,北京 100084)摘要:随着以大数据、机器学习为代表的人工智能技术在体育领域应用的兴起与发展,体育裁判人工智能化渐成趋势,机器开始部分取代人类做出裁判。综合运用文献资料、逻辑分析等方法,从正当性角度反思体育裁判人工智能化的趋向。研究认为,体育裁判人工智能化在主体正当性上存在着主体地位、主体能力、主体责任的缺失,在手段正当性上面临着数据基础设施和能动创新不足的困境,在程序正当性上存在着知情程序、亲历程序削弱的问题,在结果正当性上面临着结果一致性、结果客观性、结果效率性的悖论。由此之故,体育裁判人工智能化在当下的定位还只能是一种辅助性的工具,其“善假于物”作用的发挥还有赖于适用范围的厘定、裁判数据和算法的优化、正当程序的因应、裁判结果的控制等必要步骤。关键词:体育裁判;人工智能;大数据;正当性中图分类号:G80-05 文献标识码:A自 1956 年达特茅斯会议(Dartmouth Conference)上,信息论创始人克劳德艾尔伍德香农等人首次提出“人工智能”概念以来,人工智能深刻地嵌入了人类社会发展的进程中。21 世纪初,随着数据的积累和算法的革新,人工智能迎来了第三次发展浪潮,呈现出深度学习、人机协作、跨界融合、自主控制等人类过去使用的技术所不具备的新特点(腾讯研究院 等,2017)。体育一直是人工智能的天然“试验场”(郑芳 等,2019),近年来,各大赛事相继推出了一系列人工智能裁判系统,例如,2018 年俄罗斯足球世界杯引入了人工智能视频辅助裁判系统,2019年美国棒球大西洋联盟开始采用机器人裁判判定好坏球,2021 年东京奥运会和 2022 年北京冬奥会中也都引入了人工智能评分系统(光明网,2022)。在学术研究上,诸多观点也开始憧憬实现体育裁判的人工智能化,如 Mataruna(2020)提出了“虚拟裁判”(virtual referees)的概念,即人类裁判的作用仅限于赛场上运动员部分行为的管理,而将具体判罚决策交予人工智能处理。还有诸多学者系统归纳了体育裁判人工智能化可能的显著优势,包括及时修正错误、弥补人类的信息差(information gaps)、保持裁判的一致性、具有可预测性以及中立性等(Madison,2021)。体育裁判人工智能化的愿景是美好的,然而竞技体育不同于围棋博弈,人工智能是否真的契合体育裁判场景、涉及的手段条件是否具备、是否会给体育裁判带来程序风险和结果风险,这些问题都需要进一步厘清。鉴于此,本文尝试从正当性角度对体育裁判人工智能化予以反思,从深层次探寻当前体育裁判人工智能化所遇到的困境,进而构建合理的应对方案,以期促进体育裁判人工智能化更好地发展。1 体育裁判人工智能化的内涵与运作机理 1.1 体育裁判人工智能化的内涵体育裁判是体育赛事的重要组成部分,裁判员代表着规则的应用,通过对场上行为的判断裁决是非,保护球员安全和比赛的完整性,以使比赛进入某种“适当的轨道”(proper course)(Catteeuw et al.,2009)。而人工智能所欲追求的是探索人类智能活动的规律,构建智能系统,使机器完成人类所能完成的任务(张国英 等,2010)。拉塞尔等(2010)将人工智能纷繁复杂的技术性定义总结归纳为4个方面:拟人思考、拟人行为、理性思考、理性行为。因此,人工智能化意味着机器可以像人类一样,对外部世界做出准确的反应或抽象的思考,并通过自己独特的“大脑”文章编号:1000-677X(2022)11-0090-08DOI:10.16469/j.css.202211011收稿日期:2022-04-06;修订日期:2022-09-29基金项目:国家社会科学基金重大项目(20&ZD337)。作者简介:徐伟康(1994-),男,在读博士研究生,主要研究方向为体育法学,E-mail:。90徐伟康:体育裁判人工智能化的正当性困境与应对和“神经系统”在复杂的情况下做出审慎的判断。需要说明的是,根据人工智能和人类智能的比较,人工智能的发展被划分为“弱人工智能”“强人工智能”“超人工智能”3 个阶段。按照设想,在“强人工智能”和“超人工智能”阶段,人工智能将接近或超越人类智能(何立民,2020),但对于当下而言二者过于遥远,人工智能技术仍然且将长期处于“弱人工智能”阶段。AlphaGo能够在围棋领域击败人类,并不是因为它在主观能动性方面优于人类,主要是缘于它在获取海量数据的基础上模仿或“理解”了人类行为,使机器能够独立完成一些原本依赖人类智慧的决策(Schmidt,2020)。因此,本研究的“体育裁判人工智能化”所要探讨的不是计算机程序拥有某种类似甚至超过人类裁判员的智能,而是计算机程序模仿体育裁判的思维,模拟体育裁判的实施过程,全部或部分代替人类裁判员决定实质性的事实问题、应用裁判规则、做出处罚等。1.2 体育裁判人工智能化的运作机理体育裁判人工智能化的运作主要是通过对赛场情况的获取,即利用计算机视觉、图像识别以及各类传感技术“看见”“听见”“感受到”比赛过程,将体育赛场的关键事实提取出来。例如,东京奥运会体操比赛的人工智能评分系统通过将红外光投射到运动员的身体及其周边,捕捉运动员的瞬间动作和身体扭转角度,并将其实时转换为三维图像(魏依晨,2021)。而后将提取出来的有效赛场实时场景转化为数据进行建模分析,输出相应结果。在具体技术上主要有 2种方法,第一种是明确编码的封闭式算法,即通过专家系统模拟人类推理并将其应用于体育裁判的决策中。详言之,一是提前在计算机中建立一个包含相关素材(如运动项目规则、以往比赛场景出现的判罚、各类突发情况的处理、裁判执裁习惯等)的数据库;二是技术化处理这些素材,搭建索引,使其可按关键要素进行搜索;三是建立一个搜索引擎,可以对获得的素材进行自动检索,查找与数据库相似的情景,进而输出裁判结果。例如,在体操比赛中,人工智能可以分析运动员身体的旋转动作,并与数据库中的现有材料相结合,以确定运动员技术动作的完成程度。在体育裁判人工智能化的进程中,专家系统很长一段时间都占据主导地位。但机器学习,特别是深度学习的兴起,推动人类技术范式由“大定律,小数据”向“大数据,小定律”转变(金观涛,2019)。在体育裁判中也出现了第二种人工智能路径,即通过算法学习,让机器在大数据中自行学习如何“像人类一样”进行裁判,其核心要素便在于建构一种能够实现对裁判进行预测的算法模型,找寻人类裁判员的模式和规律,从而实现对这些裁判行为的自主模拟。总体而言,体育裁判人工智能化的本质在于按照设定的目标探索和分析非结构化和半结构化的数据(如体育规则、过去的裁判情形和结果),揭示背后所蕴藏的规律性,并进一步构建模型,以便为具体裁判场景提供适当的解决方案。2 体育裁判人工智能化的正当性困境 人工智能的正当性通常是指其目标和行为在整个运行过程中符合社会现行规范和政策要求,符合社会发展的客观需要,符合人类的基本利益(郑曦,2020),即人工智能的正当性需要从整个运行过程中的目标和行为的合理性和合法性层面去理解(彭中礼,2021)。考虑到体育裁判运行过程主要涉及裁判主体、裁判手段、裁判程序、裁判结果,本文主要从主体是否适格、手段是否有效、程序是否正义、结果是否合理4个方面去审视正当性问题。2.1 主体的正当性困境从主体地位来看,人工智能难以具有身份权威。裁判员身份权威亦被称为裁判员本体论权威或身份特权,指的是裁判员在比赛中通过特许或其他方式获得的区别于其他主体(如运动员、教练员、观众等)的特殊权利。这种身份权威赋予了裁判员规则执行者、比赛管理者和比赛流程监督者的角色和权力,是裁判员执裁的基础(张琪,2018)。体育裁判人工智能化对这一身份权威提出了挑战,因为从裁判员身份权威的来源来看,其不仅是源于裁判员本身的专业能力,也是一种体育参与者授权的结果。在大型体育赛事活动中,裁判员的身份权威是由国际单项体育联合会的章程所授权的,在一些小型或非正规的赛事活动中,也是通过明示或暗示的契约授权所取得的,这缘于人类作为法律主体的地位,而作为技术的人工智能,未能也难以作为被授权的主体。从主体能力来看,人工智能难以具有价值判断。人工智能可以发挥作用的领域主要是理性计算的范畴,就人主体性的其他方面,人工智能并无所长。在感知层面,虽然人工智能似乎具备了一定的感知能力,例如对应人类听觉的语音识别技术、对应人类视觉的图像识别技术、对应人类读写的自然语言处理技术,但无论从数据科学还是智能科学的角度来看,这些技术都处于“数据收集”阶段,即对各种格式的数据进行收集和汇总,然后服务于后续的“认知”阶段。换言之,人工智能只是一种机器方法,它利用数据收集、分析和计算来实现人类智能,但并不了解人类智能的运行机制(沈向洋 等,2018)。约翰希尔勒(John Searle)的“中文房间”假设很好地说明了这一点:房间外的人测试人工智能系统是否真的理解其手中的象形文字,而房间内的人工智能系统则根据象形文字的手册或字典机械地告诉房间外的人准确答案。虽然它给人以智能的形象,但并不能真正理解接收到的信息,也不能整合自己的意识判断(陈敏光,2020)。然而,体育裁判有着区别于理性计算的逻辑,它是一个伴随着评价和价值判断的过程,一个判罚的做出涉及以下 2 个层面:一是对判罚事实的争议,二是对体育规则的解释。于判罚事实争91 体育科学 2022 年(第 42 卷)第 11 期议而言,可能不太会掺杂评价和价值判断,拆解和标注是人工智能的专长,所以人工智能可以很好地处理这种争议。但是,对体育规则文本含义的规范性解释以及对规则之间冲突和矛盾的解决,就不可避免地涉及对价值的考量和判断。如 Jones 等(2018)研究了美式足球、棒球、高尔夫和网球的体育规则,认为至少包含戏剧性(drama)、逆境(adversity)、习俗(custom)、诚信(integrity)、人性(humanity)和尊严(dignity)的价值判断。在体育裁判中,典型的就有“违反体育精神的犯规”,即运动员的行为超出了体育精神和意图的范畴。这种“精神和意图”是要根据裁判员的价值判断来衡量的。同时,体育规则中本身就带有很多涉及价值判断的描述,如足球比赛中的任意球判罚,根据国际足联规则,如果一名球员以裁判员认为的草率、鲁莽或使用过分力量的方式对对手做出某些行为,将判给对方踢直接任意球。“草率”“鲁莽”“使用过分力量”都包含价值裁量,受制于裁判员基于场上因素的考量。此外,某些判断明确或隐含地要求裁判员评估运动员的心理状态,如运动员可能试图通过假摔或者隐藏动作来欺骗裁判。故而体育判罚不仅仅需要理性计算,还需要直觉、感觉、良知等人类的判断以及鲜活且自然的同感心。从主体责任来看,人工智能难以承担出错责任。我国中华人民共和国体育法(2022 年修订)第 112 条规定了裁判员违反体育道德和体育赛事规则的法律责任。体育竞赛裁判员管理办法(2015 年发布)也规定了裁判员的权利和义务,要求裁判员不得弄虚作假、营私舞弊,并规定了相应的处罚措施。体育裁判人工智能化必须面对的一个问题是,如果机器犯错了,该由谁来负责,又该如何纠错?机器决策与人类决策不同,人类决策往往是个性化的,而机器决策是标准化的,机器在某一特定情况下出错,可能意味着所有类似的情况都会出错。如前所述,人的理性和意志是体育判罚的重要要素,理性和意志所固有的有限性和薄弱性,一方面意味着裁判员在决策中不可避免地会遇到困难,甚至可能做出错误的决定;但另一方面,也意味着裁判员有隐含的义务和责任,需要对自己的决定负责。虽然目前也有观点认为鉴于人工智能系统具有自主性和认知特征,应该让人工智能系统为其行为的疏忽承担部分或全部责任(吴高臣,2020)。但是理性主体是现代法律制度的底层逻辑,人工智能是人类技术的延伸,把人工智能拟设为责任主体,会带来整个法律

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开