温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
分布式
基站
共享
技术研究
46 2023年7月 第 7 期(第36卷 总第312期)月刊电信工程技术与标准化新 技 术 应 用5G分布式基站算力共享技术研究王磊1,狄文远1,赵栋2(1 中国移动通信集团陕西有限公司,西安 710065;2 中国移动通信集团设计院有限公司陕西分公司,西安 710065)摘 要 随着5G网络智能化的发展,AI应用的引入带来了计算和存储的新需求,如何基于网络中规模部署的基站设备提供稳定可持续的算力供给,是促进5G网络智能化发展的核心要素。本文从无线网络中基站数量大和分布广的特点出发,提出一种5G分布式基站算力共享技术,低成本满足智能化算力需求,并对规模部署策略提出建议。关键词 5G基站;分布式;算力共享中图分类号 TN929.5 文献标识码 A 文章编号 1008-5599(2023)07-0046-04收稿日期:2023-04-06从 5G 开始,人工智能(AI)在移动通信网络中逐渐得到了广泛的应用。无线网络智能化是移动通信发展方向,AI 是 RAN 走向更智能、更高效率、更优性能的赋能工具,存在巨大的发展潜力和空间。比如网管级别的网络配置优化到网元级别的资源调度优化,在用户移动过程中支持毫秒级的智能分析、决策和业务处理,甚至空口物理层的智能化,都对算力提出了极高的要求。本文从无线网络中基站分布式的特点出发,结合业务潮汐带来的算力负荷忙闲不均现象和区域发展不平衡差异,在介绍分布式基站算力共享技术提出的背景和技术原理的基础上,重点分析如何利用该技术低成本满足智能化算力需求,并分析相关影响因素和规划建议。1 技术背景为了实现无线网络智能化,通常的解决方案是采用数据中心或边缘算力平台的单独建设来解决算力问题,以部署 AI 应用。但数据中心需要独立算力资源、传输资源和机房资源的支撑,建设维护成本高;边缘算力平台虽然可以就近提供近端服务,产生更快的网络服务响应,降低数据回传成本,但仍需要额外投资部署算力资源、传输资源和机房资源的支撑。而且,无论是数据中心还是边缘算力平台,都属于外挂式的 AI 部署方式,需要在网络中传输大量的原始数据。其一方面会对网络的传输带宽带和性能指标(如时延)带来巨大压力;另一方面对数据隐私保护也会带来很大的挑战。更有效的方式是,在网络设备中引入内生 AI 能力,在架构层面实现通信连接、计算、数据和 AI 算法模型的深度融合,充分利用网络设备分布式的算力和数据。5G 基站虽然具备 AI 计算所需的软硬件架构,但硬件计算资源相比于数据中心和边缘算力平台而言非常有限,且传统基站主要还是以满足无线通信系统的协议栈功能、网络实时性和稳定性要求为设计目标,能够预留给内生 AI 的资源不足,无法支持基站 AI 应用的稳定和可持续的算力供给需求。如47 2023年7月 第 7 期(第36卷 总第312期)月刊电信工程技术与标准化新 技 术 应 用果对每个基站单独提升算力,则需要巨大的成本投入。2 技术原理5G 基站硬件普遍引入更高性能的 CPU 芯片,架构上也采用了软件定义网络(SDN)和网络功能虚拟化(NFV)等新技术要素,从而具备网络能力开放性、可编程性、灵活性和可扩展性,有效满足了未来 5G 网络架构的主要技术特征需求和更高的性能要求,同时也为内生 AI 的引入创造了先决条件。分布式基站算力共享技术,从全局视角把区域网络中的基站作为一个整体考虑,基站间通过隧道连接,把多个基站组成虚拟的“分布式云网络”。如图 1 所示,内生AI 采用基站的虚拟化技术封装为可单独部署和调度的服务,利用合理的调度策略以及调度框架,实现内生 AI 应用在“分布式云网络”中的灵活部署。同时,利用基站数量大分布广和业务潮汐带来基站间负荷不均等无线网络的特点,通过“分布式云网络”连接多基站算力,通过资源的合理规划、借闲补忙和按需动态调度等手段,突破单点算力的性能极限,发挥算力的优势,提升算力的规模效能。本技术可在不改动运营商原有物理组网的情况下组成基站联邦,仅需通过配置完成,避免了高昂的建设和维护成本,可以快速规模化复制推广。3 技术方案3.1 基站联邦组网无线网络中的基站具备分布式部署的特点,基站之间传输网络不互通。要实现基站算力共享,首先要通过隧道打通基站间传输链路,形成基站联邦组网,并在联邦内的基站间搭建共享的网络平面,承载相应的 AI 应用信令和数据交互。同时,每个基站上也需要进行多网元隔离以保证网络安全。比如由于基站 A 上的服务可以调度到基站 B 上,虽然物理上 A 的服务跨越了 2 个或者多个基站,但从业务上来说,A 的服务属于同一个逻辑管理单元。另外,B 上除了自己的服务还有 A 的服务,需要避免 B 和 A 的服务间产生网络冲突。3.1.1 联邦关系配置本文通过 OMC 配置流程,将基站联邦组网文件下发给每个基站,配置文件包含但不限于联邦 ID 和基站通信 IP 等。基站收到配置文件后,通过联邦 ID 识别联邦身份和联接关系,通过基站 IP 与对端基站建立传输通信。3.1.2 联邦网络建立采 用 VXLAN 进 行 网 络 传 输 协 议 和 安 全 隔 离(VXLAN 是由 IETF 定义的 NVO3 标准技术之一,也可以由其它 NVO3 技术替代)。即基站间建立 VXLAN隧道进行通信,并且不同逻辑网元 gNode B 通过承载在不同的 VXLAN 隧道上进行网络隔离。3.2 基站联邦协同当联邦内某个基站节点上部署服务所需的算力超过了本基站的算力供应能力时,则需要将该基站的服务调度到其它负荷较轻的基站节点,实现跨基站的联邦协同。本文提出两种设计思路,来实现跨基站联邦协同机制。(1)通过联邦管理者角色完成协同。在联邦组网时,会在联邦内指定或推举出一个节点,来承担联邦管理者角色。因算力不足需要协同调度的基站节点,向联邦管理者发起请求。联邦管理者计算出可承接算力的合适节点,并协助算力请求基站和算力承接基站之间建立新的VXLAN 隧道和服务部署。灵活部署内生AI应用分布式基站云网络图1 “分布式云网络”示意图48 2023年7月 第 7 期(第36卷 总第312期)月刊电信工程技术与标准化新 技 术 应 用(2)若无联邦管理者角色,则通过联邦内广播机制完成协同。当基站发现自身算力不足时,在联邦组网内广播算力请求。其它基站收到请求后自行计算是否合适承接算力,符合条件的基站把信息反馈给算力请求基站。算力请求基站从各反馈中挑选最为合适的基站进行通信和服务部署。有联邦管理者角色的协同机制,在设计实现上更简洁,但需要考虑联邦管理者角色作为中心节点的部署策略及可靠性。无联邦管理者角色的协同机制,在网络部署上更灵活,但设计实现比较复杂,需要考虑的系统因素较多。3.3 资源共享和安全通过联邦协同的调度,联邦内每个基站可能同时部署多个逻辑网元的服务。多个逻辑网元共享同一个物理基站资源,需要解决基站内算力资源如何共享以及如何隔离资源互相不干扰的问题。本文利用 Linux 提供的虚拟化技术,通过 AI 服务抽象和资源隔离,在充分共享的同时保证安全。3.3.1 AI 服务抽象 利用 Linux 提供的虚拟化技术,把 AI 计算相关的业务逻辑和功能,抽象为可单独部署和调度的服务,同时配置服务描述文件对服务的规格、算力函数和资源要求进行描述。该描述文件包含但不限于 CPU 限额、内存限额和磁盘文件挂载点等。在联邦协同时,以 AI 服务单位进行跨基站协同调度,实现 AI 算力的灵活迁移。3.3.2 资源隔离 利用 Linux 提供的虚拟化技术,对基站内多个逻辑网元进行资源隔离,包括但不限于 CPU、内存、文件系统、进程空间和用户空间等,让每个逻辑网元运行在一个资源隔离独立的虚拟空间中,互不干扰。即使一个网元异常也不干扰其它网元及基站系统的正常运行,大大提高了安全性和可靠性。4 规划建议分布式基站算力共享技术在实际应用时需要先完成基站联邦规划,在不改动运营商原有物理组网的情况下,依靠现有的基站传输拓扑和软硬件条件,通过软件配置完成。但无线网络中的基站数量规模大、地域分布广,如果将网络中大规模基站直接进行联邦组网,协同关系配置复杂,且存在频繁的节点间信息交互,影响算力共享技术应用的稳定性。建议把网络中的大量基站划分多个小型内聚的“分布式云网络”,在每个小型的网络中单独完成联邦组网和协同。基站联邦规划主要基于基站间传输服务质量(QoS)和基站算力负荷两个维度来评估。其中,QoS 关键指标包括可用性、吞吐量、时延、时延变化(包括抖动和漂移)和分组丢失;基站算力负荷关键指标包括 CPU、内存和存储资源。基站间的传输拓扑物理连接关系,如图 2 所示,可以分为共机房机柜、跨机房机柜但传输距离短、跨机房机柜且传输拉远 3 类。实际网络测试数据,同一个机房机柜内的情况下,基站间传输距离小于 10 m,平均时延小于 1 ms,抖动和分组丢失接近 0%,传输质量稳定;跨机房机柜但传输距离短的情况下,比如在同一个近端传输汇聚设备下,基站间传输距离通常小于 10 km,平均时延小于 3 ms,抖动和分组丢失小于 0.1%,传输质量比较稳定;跨机房机柜传输拉远的情况下,比如经过回传网络拉远,基站间传输距离通常大于 10 km,平均时延大于 5 ms,抖动和分组丢失大于 0.5%,传输质量不稳定。网络规划时,借助已有网络规划的知识和经验,对基站间联邦组网做出规划配置。(1)优先选择共机房机柜的传输拓扑场景,其次选择跨机房机柜但传输距离短的传输拓扑场景,在这两种场景下筛选可组成联邦的基站待规划集合。(2)在待规划集合中,对各基站算力负荷数据进行统计评估,将负荷高低的基站进行均衡配置形成最终基站联邦组网规划。比如可以设置基站联邦算力负荷阈值(如联邦内平均基站负荷小于 30%),来判断联邦内多个基站均衡配置的合理性。(3)关于组成联邦的基站数量,建议控制在合理规49 2023年7月 第 7 期(第36卷 总第312期)月刊电信工程技术与标准化新 技 术 应 用模。如果规模小,则算力共享效果有限;但如果规模过大,则联邦关系复杂,稳定性差。在实际网络中初期应用时,建议控制在每个联邦 10 个基站以内。随着网络中对算力共享技术应用的规模和运维经验增长,可逐步扩大联邦基站数量。5 结束语本文提出的分布式基站算力共享技术,无需增加额参考文献1 杨峰义,张建敏,谢伟良,等.5G蜂窝网络架构分析J.电信科学,2015(5).2 刘光毅,邓娟,郑青碧,等.6G智慧内生:技术挑战,架构和关键特征J.移动通信,2021(4).Research on the computing power sharing technology of 5G distributed base stationWANG Lei1,DI Wen-yuan1,ZHAO Dong2(1 China Mobile Group Shaanxi Co.,Ltd.,Xian 710065,China;2 China Mobile Group Design Institute Co.,Ltd.Shaanxi Branch,Xian 710065,China)Abstract With the development of 5G network intelligence,the introduction of AI application brings new demands of computing and storage.The core elements that promotes the development of 5G network intelligence is how to provide stable and sustainable computing power for base station equipment deployed on a large scale in the network.Based on the large number and wide distribution of base stations