温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
计算机
ChatGPT
看算力
产业
机遇
230213
免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。1 证券研究报告 计算机计算机 从从 ChatGPT 看看算力算力产业机遇产业机遇 华泰研究华泰研究 计算机计算机 增持增持 (维持维持)研究员 谢春生谢春生 SAC No.S0570519080006 SFC No.BQZ938 +(86)21 2987 2036 联系人 林海亮林海亮 SAC No.S0570122060076 +(86)21 2897 2228 行业行业走势图走势图 资料来源:Wind,华泰研究 2023 年 2 月 13 日中国内地 专题研究专题研究 大模型训练热潮下,算力基础设施有望迎来产业机遇大模型训练热潮下,算力基础设施有望迎来产业机遇 ChatGPT 发布之后,引发了全球范围的关注和讨论,国内各大厂商相继宣布 GPT 模型开发计划。我们认为,以 GPT 模型为代表的 AI 大模型训练,需要消耗大量算力资源,随着国产大模型开发陆续进入预训练阶段,算力需求持续释放或将带动算力基础设施产业迎来增长新周期。产业链相关公司包括:1、算力芯片厂商:景嘉微、寒武纪、海光信息、龙芯中科、中国长城等;2、服务器厂商:浪潮信息、中科曙光等;3、IDC 服务商:宝信软件等。ChatGPT:大模型训练带来高算力需求:大模型训练带来高算力需求 训练 ChatGPT 需要使用大量算力资源。据微软官网,微软 Azure 为 OpenAI开发的超级计算机是一个单一系统,具有超过 28.5 万个 CPU 核心、1 万个GPU 和 400 GB/s 的 GPU 服务器网络传输带宽。据英伟达,使用单个 Tesla架构的 V100 GPU 对 1746 亿参数的 GPT-3 模型进行一次训练,需要用 288年时间。此外,算力资源的大量消耗,必然伴随着算力成本的上升,据Lambda,使用训练一次 1746 亿参数的 GPT-3 模型所需花费的算力成本超过 460 万美元。我们认为,未来拥有更丰富算力资源的模型开发者,或将能够训练出更优秀的 AI 模型,算力霸权时代或将开启。需求场景:预训练需求场景:预训练+日常运营日常运营+Finetune 具体来看,AI 大模型对于算力资源的需求主要体现在以下三类场景:1)模型预训练:ChatGPT 采用预训练语言模型,核心思想是在利用标注数据之前,先利用无标注的数据训练模型。据我们测算,训练一次 ChatGPT 模型(13 亿参数)需要的算力约 27.5PFlop/s-day;2)日常运营:用户交互带来的数据处理需求同样也是一笔不小的算力开支,我们测算得 ChatGPT 单月运营需要算力约 4874.4PFlop/s-day,对应成本约 616 万美元;3)Finetune:ChatGPT 模型需要不断进行 Finetune 模型调优,对模型进行大规模或小规模的迭代训练,产生相应算力需求。算力芯片算力芯片+服务器服务器+数据中心,核心环节有望率先受益数据中心,核心环节有望率先受益 我们认为,随着国内厂商相继布局 ChatGPT 类似模型,算力需求或将持续释放,供给端核心环节或将率先受益:1)算力芯片:GPU 采用了数量众多的计算单元和超长的流水线,架构更适合进行大吞吐量的 AI 并行计算;2)服务器:ChatGPT 模型训练涉及大量向量及张量运算,AI 服务器具备运算效率优势,大模型训练有望带动 AI 服务器采购需求放量;3)数据中心:IDC算力服务是承接 AI 计算需求的直接形式,随着百度、京东等互联网厂商相继布局 ChatGPT 类似产品,核心城市 IDC 算力缺口或将加大。关注关注 AI 景气周期下,算力基础设施产业机遇景气周期下,算力基础设施产业机遇 我们认为,国产厂商未来或将训练出自己的 GPT 模型,带动算力设施产业迎来景气周期。相关公司包括:1、算力芯片厂商:景嘉微、寒武纪、海光信息、龙芯中科、中国长城等;2、服务器厂商:浪潮信息、中科曙光等;3、IDC 服务商:宝信软件等。风险提示:宏观经济波动;下游需求不及预期。本研报中涉及到的公司、个股内容系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。(30)(21)(12)(3)6Feb-22Jun-22Oct-22Feb-23(%)计算机沪深300获取更多最新资料请加微信:ch e n s a s a 666 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。2 计算机计算机 ChatGPT 有望带动算力需求有望带动算力需求 需求端:大模型训练带来高算力需求需求端:大模型训练带来高算力需求 大算力消耗带来训练成本上升大算力消耗带来训练成本上升。训练 ChatGPT 需要使用大量算力资源。据微软官网,微软Azure 为 OpenAI 开发的超级计算机是一个单一系统,具有超过 28.5 万个 CPU 核心、1 万个 GPU 和 400 GB/s 的 GPU 服务器网络传输带宽。据英伟达,使用单个 Tesla 架构的 V100 GPU 对 1746 亿参数的 GPT-3 模型进行一次训练,需要用 288 年时间。此外,算力资源的大量消耗,必然伴随着算力成本的上升,据 Lambda,使用训练一次 1746 亿参数的 GPT-3模型所需花费的算力成本超过 460 万美元。虽然 GPT-3.5 在模型参数量上有了明显下降,但考虑到 GPT-3、GPT-3.5 均为 OpenAI 独家拥有,其他厂商复刻难度较高,巨量参数或仍将是模型开发过程的必经之路,我们预计未来大模型开发的算力成本仍将较高。模型算力需求增速超越芯片性能增速,算力霸权时代或将到来模型算力需求增速超越芯片性能增速,算力霸权时代或将到来。据 OpenAI 测算,自 2012年以来,全球头部 AI 模型训练算力需求 3-4 个月翻一番,每年头部训练模型所需算力增长幅度高达 10 倍。而摩尔定律认为,芯片计算性能大约每 18-24 个月翻一番。因此,AI 训练模型算力需求增长与芯片计算性能增长之间的不匹配,或将带来对算力基础设施供给需求的快速增长。我们认为,考虑到算力对于 AI 模型训练效果的关键性作用,拥有更丰富算力资源的模型开发者,或将能够训练出更优秀的 AI 模型,算力霸权时代或将开启。图表图表1:大模型时代算力需求快速增长大模型时代算力需求快速增长 资料来源:COMPUTE TRENDS ACROSS THREE ERAS OF MACHINE LEARNING,Jaime 等,2022、华泰研究 具体来看,具体来看,AI 大模型对于算力资源的需求主要体现在以下三类场景:大模型对于算力资源的需求主要体现在以下三类场景:1、模型预训练带来的算力需求、模型预训练带来的算力需求 模型预训练过程是消耗算力的最主要场景模型预训练过程是消耗算力的最主要场景。ChatGPT 采用预训练语言模型,核心思想是在利用标注数据之前,先利用无标注的数据,即纯文本数据训练模型,从而使模型能够学到一些潜在的跟标注无关的知识,最终在具体的任务上,预训练模型就可以利用大量的无标注数据知识。在 Transformer 的模型架构下,语言预训练过程可以根据上下文一次处理所有输入,实现大规模并行计算。通过堆叠多个解码模块,模型的层数规模也会随着提升,可承载的参数量同步增长。与之相对应的,模型训练所需要消耗的算力也就越大。获取更多最新资料请加微信:ch e n s a s a 666 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。3 计算机计算机 我们预计,我们预计,训练一次训练一次 ChatGPT 模型需要的算力约模型需要的算力约 27.5PFlop/s-day。据 OpenAI 团队发表于 2020 年的论文Language Models are Few-Shot Learners,训练一次 13 亿参数的GPT-3 XL 模型需要的全部算力约为 27.5PFlop/s-day,训练一次 1746 亿参数的 GPT-3 模型需要的算力约为 3640 PFlop/s-day。考虑到 ChatGPT 训练所用的模型是基于 13 亿参数的 GPT-3.5 模型微调而来,参数量与 GPT-3 XL 模型接近,因此我们预计训练所需算力约27.5PFlop/s-day,即以 1 万亿次每秒的速度进行计算,需要耗时 27.5 天。图表图表2:不同不同 NLP 模型训练需要的算力(模型训练需要的算力(PFlop/s-day)资料来源:Language Models are Few-Shot Learners,OpenAI,2020、华泰研究 图表图表3:不同不同 NLP 模型模型参数量及训练算力对比参数量及训练算力对比 模型模型 总计算量(总计算量(PFlop/s-day)总计算量(总计算量(Flops)参数量(百万个)参数量(百万个)令牌数量(十亿)令牌数量(十亿)T5 模型模型 T5-Small 2.08E+00 1.80E+20 60 1000 T5-Base 7.64E+00 6.60E+20 220 1000 T5-Large 2.67E+01 2.31E+21 770 1000 T5-3B 1.04E+02 9.00E+21 3000 1000 T5-11B 3.82E+02 3.30E+22 11000 1000 BERT 模型模型 BERT-Base 1.89E+00 1.64E+20 109 250 BERT-Large 6.16E+00 5.33E+20 355 250 ROBERTa-Base 1.74E+00 1.50E+21 125 2000 ROBERTa-Large 4.93E+01 4.26E+21 355 2000 GPT 模型模型 GPT-3 Small 2.60E+00 2.25E+20 125 300 GPT-3 Medium 7.42E+00 6.41E+20 356 300 GPT-3 Large 1.58E+01 1.37E+21 760 300 GPT-3 XL 2.75E+01 2.38E+21 1320 300 GPT-3 2.7B 5.52E+01 4.77E+21 2650 300 GPT-3 6.7B 1.39E+02 1.20E+22 6660 300 GPT-3 13B 2.68E+02 2.31E+22 12850 300 GPT-3 175B 3.64E+03 3.14E+23 174600 300 资料来源:Language Models are Few-Shot Learners,OpenAI,2020、华泰研究 1101001,00010,000BERT-BaseBERT-LargeROBERTa-BaseROBERTa-LargeT5-SmallT5-BaseT5-LargeT5-3BT5-11BGPT-3 SmallGPT-3 MediumGPT-3 LargeGPT-3 XLGPT-3 2.7BGPT-3 6.7BGPT-3 13BGPT-3 175BBERT模型T5模型GPT模型获取更多最新资料请加微信:ch e n s a s a 666 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。4 计算机计算机 此外,预训练过程还存在几个可能的算力需求点:此外,预训练过程还存在几个可能的算力需求点:1)模型开发过程很难一次取得成功,整个开发阶段可能需要进行多次预训练过程;2)随着国内外厂商相继入局研发类似模型,参与者数量增加同样带来训练算力需求;3)从基础大模型向特定场景迁移的过程,如基于 ChatGPT 构建医疗 AI 大模型,需要使用特定领域数据进行模型二次训练。图表图表4:国内外厂商相继布局类似国内外厂商相继布局类似 ChatGPT 的模型的模型 应用名称应用名称 简介简介 推出时间推出时间 开发者开发者 备注备注 Jasper AI AI 内容写作工具,内置超 50 个模板,可应用于广告、电商、播客等不同场景。2021 Jasper AI OpenAI Playground 是一种基于 Web 的工具,可以轻松测试并熟悉 API 的工作原理;无需编写任何代码,只需提供简单的英语文本输入即可开始使用 GPT-3。2021 Open AI 继 2019 年和 2021 年之后,2023 年 2月再次获得 Microsoft 数十亿美元的投资。盘古 业界首个 2000 亿超大参数中文预训练模型,基于“鹏城云脑”和 MindSpore框架的自动混合并行模式。2021 华为 Sparrow 基于 Deepmind Chinchilla 语言模型的 AI 聊天机器人,其设计目的是与人类交谈并回答问题,同时实时使用谷歌搜索或有关信息来支持它的答案。2022 DeepMind 2014 年谷歌以超 5 亿美元的价格收购DeepMind。Chatsonic 是 AI 文本生成器 Writesonic 的一项新功能,与 ChatGPT 相比的优势在于提供了访问当前谷歌数据的选项。2022 Writersonic Perplexity AI 是一种由大型语言模型和搜索引擎提供支持的聊天工具,在答案中以脚注数字的形式引用了来源。2022 Perplexity AI YouChat AI 聊天机器人,是第一个将聊天助手集成到其搜索结果中的搜索引擎。2022 Y 2021年获得来自Salesforce CEO Marc Benioff 的投资。Bard 是一款由 LaMDA 提供支持的对话式 AI 聊天机器人,利用来自网络的信息提供最新、高质量的回复,答案中包含搜索索引。2023 谷歌 Stability Diffusion 是一个文字转图片的生成模型,可以只用几秒钟时间就生成高分辨率、高清晰度,具有真实性及艺术性的图片结果。2022 Stability AI Claude AI 聊天机器人,基于前沿 NLP 和 AI 安全技术打造,目标是成为一个安全、接近人类价值观且合乎道德规范的 AI 系统。目前仍处于实验阶段,尚未作为商业产品正式发布。2023 Anthropic 2021 年获包括 Facebook 联合创始人Dustin Moskovitz,谷歌前 CEO、现技术顾问Eric Schmidt在内1.24亿美元投资。文心一言 是百度基于文心大模型技术推出的生成式对话产品,将于 2023 年 3 月完成内测,面向公众开放。2023 百度 资料来源:各公司官网、华泰研究 获取更多最新资料请加微信:ch e n s a s a 666 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。5 计算机计算机 2、日常运营带来的算力需求、日常运营带来的算力需求 预计预计 ChatGPT 单月运营需要算力约单月运营需要算力约 4874.4PFlop/s-day,对应成本约,对应成本约 616 万美元万美元。在完成模型预训练之后,ChatGPT 对于底层算力的需求并未结束,日常运营过程中,用户交互带来的数据处理需求同样也是一笔不小的算力开支。据 SimilarWeb 数据,2023 年 1 月ChatGPT 官网总访问量为 6.16 亿次。据 Fortune 杂志,每次用户与 ChatGPT 互动,产生的算力云服务成本约 0.01 美元。基于此,我们测算得 2023 年 1 月 OpenAI 为 ChatGPT 支付的运营算力成本约 616 万美元。据上文,我们已知训练一次 1746 亿参数的 GPT-3 模型需要 3640 PFlop/s-day 的算力及 460 万美元的成本,假设单位算力成本固定,测算得ChatGPT 单月运营所需算力约 4874.4PFlop/s-day。图表图表5:ChatGPT 单月运营算力成本测算单月运营算力成本测算 资料来源:SimilarWeb、Fortune、华泰研究预测 3、Finetune 带来的算力需求带来的算力需求 模型调优带来迭代算力需求模型调优带来迭代算力需求。从模型迭代的角度来看,ChatGPT 模型并不是静态的,而是需要不断进行 Finetune 模型调优,以确保模型处于最佳应用状态。这一过程中,一方面是需要开发者对模型参数进行调整,确保输出内容不是有害和失真的;另一方面,需要基于用户反馈和 PPO 策略,对模型进行大规模或小规模的迭代训练。因此,模型调优同样会为OpenAI 带来算力成本,具体算力需求和成本金额取决于模型的迭代速度。获取更多最新资料请加微信:ch e n s a s a 666 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。6 计算机计算机 供给端:核心环节有望率先受益供给端:核心环节有望率先受益 算力芯片:算力芯片:AI 算力基石,需求有望大规模扩张算力基石,需求有望大规模扩张 GPU 架构架构更适合进行大规模更适合进行大规模 AI 并行计算并行计算,需求有望大规模扩张需求有望大规模扩张。从 ChatGPT 模型计算方式来看,主要特征是采用了并行计算。对比上一代深度学习模型 RNN 来看,Transformer架构下,AI 模型可以为输入序列中的任何字符提供上下文,因此可以一次处理所有输入,而不是一次只处理一个词,从而使得更大规模的参数计算成为可能。而从 GPU 的计算方式来看,由于 GPU 采用了数量众多的计算单元和超长的流水线,因此其架构设计较 CPU 而言,更适合进行大吞吐量的 AI 并行计算。基于此,我们认为,随着大模型训练需求逐步增长,下游厂商对于 GPU 先进算力及芯片数量的需求均有望提升。图表图表6:GPU 内部结构更适合进行大规模并行计算内部结构更适合进行大规模并行计算 资料来源:CSDN、华泰研究 单一单一英伟达英伟达 V100 芯片进行一次芯片进行一次 ChatGPT 模型训练,大约需要模型训练,大约需要 220 天天。我们以 AI 训练的常用的 GPU 产品NVIDIA V100 为例。V100 在设计之初,就定位于服务数据中心超大规模服务器。据英伟达官网,V100 拥有 640 个 Tensor 内核,对比基于单路英特尔金牌 6240的 CPU 服务器可以实现 24 倍的性能提升。考虑到不同版本的 V100 芯片在深度学习场景下计算性能存在差异,因此我们折中选择 NVLink 版本 V100(深度学习算力 125 TFlops)来计算大模型训练需求。据前文,我们已知训练一次 ChatGPT 模型(13 亿参数)需要的算力约 27.5PFlop/s-day,计算得若由单个 V100 GPU 进行计算,需 220 天;若将计算需求平均分摊至 1 万片 GPU,一次训练所用时长则缩短至约 32 分钟。图表图表7:英伟达英伟达 V100 算力参数算力参数 双精度(双精度(TFlops)单精度(单精度(TFlops)深度学习(深度学习(TFlops)NVLink 版本版本 V100 7.8 15.7 125.0 PCIe 版本版本 V100 7.0 14.0 112.0 PCIe 版本版本 V100S 8.2 16.4 130.0 资料来源:英伟达官网、华泰研究 获取更多最新资料请加微信:ch e n s a s a 666 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。7 计算机计算机 全球全球/中国中国 GPU 市场规模有望保持快速增长市场规模有望保持快速增长。据 VMR 数据,2021 年全球 GPU 行业市场规模为 334.7 亿美元,预计 2030 年将达到 4773.7 亿美元,预计 22-30 年 CAGR 将达 34.4%。2020 年中国 GPU 市场规模 47.39 亿美元,预计 2027 年市场规模将达 345.57 亿美元,预计 21-27 年 CAGR 为 32.8%。图表图表8:全球全球 GPU 市场规模市场规模 图表图表9:中国中国 GPU 市场规模市场规模 资料来源:Verified Market Research、华泰研究 资料来源:Verified Market Research、华泰研究 服务器:服务器:AI 服务器有望持续放量服务器有望持续放量 ChatGPT 主要进行矩阵向量计算,主要进行矩阵向量计算,AI 服务器处理效率更高服务器处理效率更高。从 ChatGPT 模型结构来看,基于 Transformer 架构,ChatGPT 模型采用注意力机制进行文本单词权重赋值,并向前馈神经网络输出数值结果,这一过程需要进行大量向量及张量运算。而 AI 服务器中往往集成多个 AI GPU,AI GPU 通常支持多重矩阵运算,例如卷积、池化和激活函数,以加速深度学习算法的运算。因此在人工智能场景下,AI 服务器往往较 GPU 服务器计算效率更高,具备一定应用优势。图表图表10:GPU 服务器与服务器与 AI 服务器的服务器的区别区别 GPU 服务器服务器 AI 服务器服务器 主要用途主要用途 主要用于图形处理,如游戏渲染、视频编辑等 主要用于人工智能和机器学习任务 计算特征计算特征 配备大量的浮点运算单元和高度并行的架构 配备更多的矩阵运算单元,针对深度学习算法进行了优化 处理对象处理对象 能够高效地处理大量的图形数据 能够高效地处理大量的数学运算 应用场景应用场景 适用于大量图形处理的应用程序 适用于需要高效机器学习的应用程序 资料来源:ChatGPT、华泰研究 单台服务器进行一次单台服务器进行一次 ChatGPT 模型训练所需时间约为模型训练所需时间约为 5.5 天天。我们以浪潮信息目前算力最强的服务器产品之一浪潮 NF5688M6 为例。NF5688M6 是浪潮为超大规模数据中心研发的 NVLink AI 服务器,支持2颗 Intel最新的 Ice Lake CPU和 8颗 NVIDIA最新的 NVSwitch全互联 A800GPU,单机可提供 5PFlops 的 AI 计算性能。据前文,我们已知训练一次ChatGPT 模型(13 亿参数)需要的算力约 27.5PFlop/s-day,计算得若由单台 NF5688M6服务器进行计算,需 5.5 天。334.74773.701,0002,0003,0004,0005,0006,00020212030全球GPU市场规模(亿美元)47.39345.5705010015020025030035040020202027中国GPU市场规模(亿美元)获取更多最新资料请加微信:ch e n s a s a 666 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。8 计算机计算机 大模型训练需求有望带动大模型训练需求有望带动 AI 服务器放量服务器放量。随着大数据及云计算的增长带来数据量的增加,对于 AI 智能服务器的需求明显提高。据 IDC 数据,2021 年全球 AI 服务器市场规模为 156亿美元,预计到 2025 年全球 AI 服务器市场将达到 318 亿美元,预计 22-25 年 CAGR 将达19.5%。2021 年中国 AI 服务器行业市场规模为 350.3 亿元,同比增长 68.6%,预计 22-25年 CAGR 将达 19.0%。我们认为,随着 ChatGPT 持续火热,国内厂商陆续布局 ChatGPT类似产品,AI 服务器采购需求有望持续增长,市场规模或将进一步扩张。图表图表11:全球全球 AI 服务器市场规模服务器市场规模 图表图表12:中国中国 AI 服务器市场规模服务器市场规模 资料来源:IDC、华泰研究 资料来源:IDC、华泰研究 数据中心:数据中心:核心核心城市集中城市集中算力缺口或将加剧算力缺口或将加剧 IDC 算力服务是承接算力服务是承接 AI 计算需求的计算需求的直接形式直接形式。ChatGPT 的模型计算主要基于微软的 Azure云服务进行,本质上是借助微软自有的 IDC 资源,在云端完成计算过程后,再将结果返回给 OpenAI。可见,IDC 是承接人工智能计算任务的重要算力基础设施之一,但并不是所有企业都需要自行搭建算力设施。从国内数据中心的业务形态来看,按照机房产权归属及建设方式的角度,可分为自建机房、租赁机房、承接大客户定制化需求以及轻资产衍生模式四种。若若使用使用商汤智算中心全部算力商汤智算中心全部算力,可在,可在 11 分钟完成一次分钟完成一次 ChatGPT 模型训练模型训练。我们以亚洲最大的人工智能计算中心之一商汤智算中心为例。据商汤科技官网,商汤智算中心于 2022年 1 月启动运营,峰值算力高达 3740 Petaflops。据前文,我们已知训练一次 ChatGPT 模型(13 亿参数)需要的算力约 27.5PFlop/s-day,考虑到计算用时较短,我们使用峰值算力进行测算,计算得仅需 11 分钟即可完成计算。AI 训练需求有望带动训练需求有望带动 IDC 市场市场规模规模快速快速增长增长。据中国信通院,2021 年国内 IDC 市场规模1500.2 亿元,同比增长 28.5%。据信通院预计,随着我国各地区、各行业数字化转型深入推进、AI 训练需求持续增长、智能终端实时计算需求增长,2022 年国内市场规模将达 1900.7亿元,同增 26.7%。15631805010015020025030035020212025全球AI服务器市场规模(亿美元)350.3701.8010020030040050060070080020212025中国AI服务器市场规模(亿元)获取更多最新资料请加微信:ch e n s a s a 666 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。9 计算机计算机 图表图表13:中国中国 IDC 市场规模市场规模 资料来源:中国信通院、华泰研究 互联网厂商布局互联网厂商布局 ChatGPT 类似产品,类似产品,或将加大核心城市或将加大核心城市 IDC 算力算力供给供给缺口缺口。据艾瑞咨询,2021 年国内 IDC 行业下游客户占比中,互联网厂商居首位,占比为 60%;其次为金融业,占比为 20%;政府机关占比 10%,位列第三。而目前国内布局 ChatGPT 类似模型的企业同样以互联网厂商为主,如百度宣布旗下大模型产品“文心一言”将于 2022 年 3 月内测、京东于 2023 年 2 月 10 日宣布推出产业版 ChatGPT:ChatJD。另一方面,国内互联网厂商大多聚集在北京、上海、深圳、杭州等国内核心城市,在可靠性、安全性及网络延迟等性能要求下,或将加大对本地 IDC 算力需求,国内核心城市 IDC 算力供给缺口或将加大。图表图表14:2021 年中国年中国 IDC 市场下游客户结构市场下游客户结构 资料来源:艾瑞咨询、华泰研究 16.4%32.6%29.1%32.9%28.5%26.7%0%5%10%15%20%25%30%35%02004006008001,0001,2001,4001,6001,8002,0002016201720182019202020212022E市场规模(亿元)同比增速(%,右轴)互联网厂商60%金融业20%政府机关10%制造业3%其他7%获取更多最新资料请加微信:ch e n s a s a 666 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。10 计算机计算机 产业链相关公司梳理产业链相关公司梳理 1)算力芯片厂商:景嘉微、寒武纪、海光信息、龙芯中科、中国长城等;2)服务器厂商:浪潮信息、中科曙光等;3)IDC 服务商:宝信软件等。图表图表15:提及公司表提及公司表 代码代码 公司简称公司简称 代码代码 公司简称公司简称 000066 CH 中国长城 688256 CH 寒武纪 000977 CH 浪潮信息 BIDU US 百度 0020 HK 商汤-W GOOGL US 谷歌 300474 CH 景嘉微 JD US 京东 600845 CH 宝信软件 NVDA US 英伟达 603019 CH 中科曙光 未上市 OpenAI 688041 CH 海光信息 未上市 华为 688047 CH 龙芯中科 资料来源:Bloomberg,华泰研究 风险提示风险提示 宏观经济波动。宏观经济波动。若宏观经济波动,产业变革及新技术的落地节奏或将受到影响,宏观经济波动还可能对 IT 投资产生负面影响,从而导致整体行业增长不及预期。下游需求不及预期。下游需求不及预期。若下游数字化需求不及预期,相关的数字化投入增长或慢于预期,致使行业增长不及预期。本研报中涉及到的公司、个股内容系对其客观公开信息的整理,并不代表本研究团队对该本研报中涉及到的公司、个股内容系对其客观公开信息的整理,并不代表本研究团队对该公司、该股票的推荐或覆盖。公司、该股票的推荐或覆盖。获取更多最新资料请加微信:ch e n s a s a 666 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。11 计算机计算机 免责免责声明声明 分析师声明分析师声明 本人,谢春生,兹证明本报告所表达的观点准确地反映了分析师对标的证券或发行人的个人意见;彼以往、现在或未来并无就其研究报告所提供的具体建议或所表迖的意见直接或间接收取任何报酬。一般声明及披露一般声明及披露 本报告由华泰证券股份有限公司(已具备中国证监会批准的证券投资咨询业务资格,以下简称“本公司”)制作。本报告所载资料是仅供接收人的严格保密资料。本报告仅供本公司及其客户和其关联机构使用。本公司不因接收人收到本报告而视其为客户。本报告基于本公司认为可靠的、已公开的信息编制,但本公司及其关联机构(以下统称为“华泰”)对该等信息的准确性及完整性不作任何保证。本报告所载的意见、评估及预测仅反映报告发布当日的观点和判断。在不同时期,华泰可能会发出与本报告所载意见、评估及预测不一致的研究报告。同时,本报告所指的证券或投资标的的价格、价值及投资收入可能会波动。以往表现并不能指引未来,未来回报并不能得到保证,并存在损失本金的可能。华泰不保证本报告所含信息保持在最新状态。华泰对本报告所含信息可在不发出通知的情形下做出修改,投资者应当自行关注相应的更新或修改。本公司不是 FINRA 的注册会员,其研究分析师亦没有注册为 FINRA 的研究分析师/不具有 FINRA 分析师的注册资格。华泰力求报告内容客观、公正,但本报告所载的观点、结论和建议仅供参考,不构成购买或出售所述证券的要约或招揽。该等观点、建议并未考虑到个别投资者的具体投资目的、财务状况以及特定需求,在任何时候均不构成对客户私人投资建议。投资者应当充分考虑自身特定状况,并完整理解和使用本报告内容,不应视本报告为做出投资决策的唯一因素。对依据或者使用本报告所造成的一切后果,华泰及作者均不承担任何法律责任。任何形式的分享证券投资收益或者分担证券投资损失的书面或口头承诺均为无效。除非另行说明,本报告中所引用的关于业绩的数据代表过往表现,过往的业绩表现不应作为日后回报的预示。华泰不承诺也不保证任何预示的回报会得以实现,分析中所做的预测可能是基于相应的假设,任何假设的变化可能会显著影响所预测的回报。华泰及作者在自身所知情的范围内,与本报告所指的证券或投资标的不存在法律禁止的利害关系。在法律许可的情况下,华泰可能会持有报告中提到的公司所发行的证券头寸并进行交易,为该公司提供投资银行、财务顾问或者金融产品等相关服务或向该公司招揽业务。华泰的销售人员、交易人员或其他专业人士可能会依据不同假设和标准、采用不同的分析方法而口头或书面发表与本报告意见及建议不一致的市场评论和/或交易观点。华泰没有将此意见及建议向报告所有接收者进行更新的义务。华泰的资产管理部门、自营部门以及其他投资业务部门可能独立做出与本报告中的意见或建议不一致的投资决策。投资者应当考虑到华泰及/或其相关人员可能存在影响本报告观点客观性的潜在利益冲突。投资者请勿将本报告视为投资或其他决定的唯一信赖依据。有关该方面的具体披露请参照本报告尾部。本报告并非意图发送、发布给在当地法律或监管规则下不允许向其发送、发布的机构或人员,也并非意图发送、发布给因可得到、使用本报告的行为而使华泰违反或受制于当地法律或监管规则的机构或人员。本报告版权仅为本公司所有。未经本公司书面许可,任何机构或个人不得以翻版、复制、发表、引用或再次分发他人(无论整份或部分)等任何形式侵犯本公司版权。如征得本公司同意进行引用、刊发的,需在允许的范围内使用,并需在使用前获取独立的法律意见,以确定该引用、刊发符合当地适用法规的要求,同时注明出处为“华泰证券研究所”,且不得对本报告进行任何有悖原意的引用、删节和修改。本公司保留追究相关责任的权利。所有本报告中使用的商标、服务标记及标记均为本公司的商标、服务标记及标记。中国香港中国香港 本报告由华泰证券股份有限公司制作,在香港由华泰金融控股(香港)有限公司向符合证券及期货条例及其附属法律规定的机构投资者和专业投资者的客户进行分发。华泰金融控股(香港)有限公司受香港证券及期货事务监察委员会监管,是华泰国际金融控股有限公司的全资子公司,后者为华泰证券股份有限公司的全资子公司。在香港获得本报告的人员若有任何有关本报告的问题,请与华泰金融控股(香港)有限公司联系。获取更多最新资料请加微信:ch e n s a s a 666 免责声明和披露以及分析师声明是报告的一部分,请务必一起阅读。12 计算机计算机 香港香港-重要监管披露重要监管披露 华泰金融控股(香港)有限公司的雇员或其关联人士没有担任本报告中提及的公司或发行人的高级人员。有关重要的披露信息,请参华泰金融控股(香港)有限公司的网页 https:/.hk/stock_disclosure 其他信息请参见下方“美国“美国-重要监管披露”重要监管披露”。美国美国 在美国本报告由华泰证券(美国)有限公司向符合美国监管规定的机构投资者进行发表与分发。华泰证券(美国)有限公司是美国注册经纪商和美国金融业监管局(FINRA)的注册会员。对于其在美国分发的研究报告,华泰证券(美国)有限公司根据1934 年证券交易法(修订版)第 15a-6 条规定以及美国证券交易委员会人员解释,对本研究报告内容负责。华泰证券(美国)有限公司联营公司的分析师不具有美国金融监管(FINRA)分析师的注册资格,可能不属于华泰证券(美国)有限公司的关联人员,因此可能不受 FINRA 关于分析师与标的公司沟通、公开露面和所持交易证券的限制。华泰证券(美国)有限公司是华泰国际金融控股有限公司的全资子公司,后者为华泰证券股份有限公司的全资子公司。任何直接从华泰证券(美国)有限公司收到此报告并希望就本报告所述任何证券进行交易的人士,应通过华泰证券(美国)有限公司进行交易。美国美国-重要监管披露重要监管披露 分析师谢春生本人及相关人士并不担任本报告所提及的标的证券或发行人的高级人员、董事或顾问。分析师及相关人士与本报告所提及的标的证券或发行人并无任何相关财务利益。本披露中所提及的“相关人士”包括 FINRA 定义下分析师的家庭成员。分析师根据华泰证券的整体收入和盈利能力获得薪酬,包括源自公司投资银行业务的收入。华泰证券股份有限公司、其子公司和/或其联营公司,及/或不时会以自身或代理形式向客户出售及购买华泰证券研究所覆盖公司的证券/衍生工具,包括股票及债券(包括衍生品)华泰证券研究所覆盖公司的证券/衍生工具,包括股票及债券(包括衍生品)。华泰证券股份有限公司、其子公司和/或其联营公司,及/或其高级管理层、董事和雇员可能会持有本报告中所提到的任何证券(或任何相关投资)头寸,并可能不时进行增持或减持该证券(或投资)。因此,投资者应该意识到可能存在利益冲突。本报告所载的观点、结论和建议仅供参考,不构成购买或出售所述证券的要约或招揽,亦不试图促进购买或销售该等证券。如任何投资者为美国公民、取得美国永久居留权的外国人、根据美国法律所设立的实体(包括外国实体在美国的分支机构)、任何位于美国的个人,该等投资者应当充分考虑自身特定状况,不以任何形式直接或间接地投资本报告涉及的投资者所在国相关适用的法律法规所限制的企业的公开交易的证券、其衍生证券及用