分享
半导体行业专题:ChatGPT对GPU算力的需求测算与相关分析-20230216-中信证券-71页.pdf
下载文档
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
半导体 行业 专题 ChatGPT GPU 需求 测算 相关 分析 20230216 中信 证券 71
2023年年2月月16日日半导体行业专题半导体行业专题ChatGPT对对GPU算力的需求测算与相关分析算力的需求测算与相关分析中信证券研究部中信证券研究部 雷俊成雷俊成/王子源王子源/徐涛徐涛/杨泽原杨泽原1 1核心观点:单个大模型可带来核心观点:单个大模型可带来2万万GPU销售量,搜索引擎带来成倍空间销售量,搜索引擎带来成倍空间核心观点:核心观点:1.1.短期内短期内GPUGPU增量与市场规模:增量与市场规模:参考OpenAI算法,假设每日1亿用户,每人进行10条交互,每个问题的回答长度为50词,算力利用率30%,则单个大语言模型(LLM)的日常需求有望带来2.13万片A100的增量,对应市场规模2.13亿美元。假设有假设有5 5家大企业推出此类家大企业推出此类LLMLLM,则总,则总增量为增量为10.710.7片片A100A100,对应市场规模,对应市场规模10.710.7亿美元。亿美元。2.2.短期服务器增量与市场规模:短期服务器增量与市场规模:单个服务器包含8个GPU,因此单个LLM带来2669台服务器需求,对应市场规模3.39亿美元,5 5家大企业共需要家大企业共需要1334513345台,对应市场规模台,对应市场规模2020亿美元。亿美元。3.3.长期市场空间:长期市场空间:参考谷歌,若每日搜访问30亿次,需要需要106.74106.74万张万张A100A100,对应,对应13.313.3万台服万台服务器务器DGX A100DGX A100,带来市场空间,带来市场空间200200亿美元。亿美元。资料来源:Raconteur,OpenAI:Language Models are Few-Shot Learners,NVIDIA官网,Amazon,中信证券研究部市场规模相关参数市场规模相关参数/假设假设A100单卡算力:19.5TFLOPS/s日常算力利用率:30%(依据经验)GPU单价:1万美元(A100)服务器单价:15万美元(DGX Station A100)做LLM模型的企业数量:5(BAT、华为、字节)每台服务器搭载GPU数量:81亿用户所需GPU数量:21348(A100)近期单日交互+训练总算力1.08E+10TFLOPSA100单卡算力19.5T/s算力利用率30%关键中间变量:关键中间变量:GPU与服务器增量与服务器增量一个LLM模型所需GPU数量:21348(A100)1亿用户所需服务器数量:2669(DGX A100)每台服务器搭载GPU数量:85家企业对应10.7万片A100、1.33万台服务器短期国内短期国内GPU/服务器增量市场规模服务器增量市场规模一个LLM模型所需GPU数量:21348(A100)GPU单价:1万美元(A100)1亿用户带来国内GPU总市场规模:2.13亿美元一个LLM所需服务器数量:2669服务器单价:15万美元(A100)1亿用户带来国内服务器市场规模:3.39亿美元远期远期GPU增量空间增量空间谷歌+LLM所需GPU数量:1067415(A100)远期总算力需求:5.4 E+11 TFLOPSA100单卡算力:19.5TFLOPS/s算力利用率:30%5家企业对应10.7亿美元GPU、20亿美元服务器谷歌+LLM所需服务器数量:133427(GPU/8)注:远期由于更高算力的注:远期由于更高算力的GPUGPU出现或更高效的计算出现或更高效的计算方式,对应市场空间可能变化。方式,对应市场空间可能变化。2 2核心观点核心观点技术差距:技术差距:GPGPU的核心壁垒是高精度浮点计算及的核心壁垒是高精度浮点计算及CUDA生态生态。从高精度浮点计算能力来看从高精度浮点计算能力来看,国内国内GPU产品与国外产品的计算性能仍或有一代以上差距;在软件和生产品与国外产品的计算性能仍或有一代以上差距;在软件和生态层面与英伟达态层面与英伟达CUDA生态的差距则更为明显生态的差距则更为明显。AI计算GPU领域,国内壁仞科技发布的BR100产品在FP32单精度计算性能上实现超越NVIDIA A100芯片,但是不支持FP64双精度计算;天数智芯推出的天垓100的FP32单精度计算性能实现超越A100芯片,但是在INT8整数计算性能方面却低于A100;海光推出的DCU实现了FP64双精度浮点计算,但是其性能为A100的60%左右,大概相当于其4年前水平。因此,从高精度浮点计算能力来看,国内GPU产品与国外产品的计算性能仍或有一代以上差距。但是,GPU不仅在硬件上需要提升算力,软件层面对于GPU的应用和生态布局尤其重要,英伟达凭借CUDA构建生态壁垒占领全球GPU市场90%的份额。目前国内企业多采用开源的OpenCL进行自主生态建设,但这需要大量的时间进行布局;我们对比AMD从2013年开始建设GPU生态,近10年时间后用于通用计算的ROCm开放式软件平台才逐步有影响力,且还是在兼容CUDA的基础上。因此我们认为国内厂商在软件和生态层面与英伟达CUDA生态的差距较计算性能更为明显。虽然目前国内产品的计算性能和软件生态实力与国际厂商还有差距,但是,国内厂商依然在奋起直追,努力实现GPGPU的国产化突破。我们认为长久来看我们认为长久来看,美国对中国高端美国对中国高端GPU的禁售令反而给国产的禁售令反而给国产GPGPU和和AI芯片厂商带来快速发展的机会芯片厂商带来快速发展的机会。短期来看,我们认为对高端通用计算GPU的禁令可能会影响英伟达和AMD的GPU产品在中国的销售,中国AI计算、超级计算和云计算产业进步受到一定的阻碍。可使用英伟达和AMD还没有被禁止的及国产厂商的中高计算性能CPU、GPU、ASIC芯片等替代。长期来看,国产CPU、GPU、AI芯片厂商受益于庞大的国内市场,叠加国内信创市场带来国产化需求增量,我们预期国内AI芯片的国产化比例将显著提升,借此机会进行产品升级,逐渐达到国际先进水平,突破封锁。对于国内厂商对于国内厂商,建议重点关注实现自主创新建议重点关注实现自主创新,打造自主生态体系打造自主生态体系,打磨产品实现稳定供货的公司打磨产品实现稳定供货的公司。重点关注能够实现GPU领域的自主创新,实现架构、计算核、指令集及基础软件栈的全自研的设计公司。同时,不止成功点亮,要能满足测试、客户适配、稳定供货等一系列要求,成功量产并实现规模应用,实现GPGPU的国产替代。建议关注:建议关注:国内企业:1)芯片:龙芯中科(国内PC CPU龙头,自主研发GPGPU产品)、海光信息(国内服务器CPU龙头,推出深度计算处理器DCU)、景嘉微(国内图形渲染GPU龙头)、寒武纪(国内ASIC芯片龙头)、澜起科技(国内服务器内存接口芯片龙头);2)PCB:胜宏科技、兴森科技、沪电股份;3)先进封装:通富微电、甬矽电子、长电科技、长川科技等。海外企业:英伟达(全球GPU龙头)、AMD(全球CPU/GPU领先厂商)、英特尔(全球CPU龙头)、美光(全球存储芯片龙头)。风险因素:用户拓展不及预期风险风险因素:用户拓展不及预期风险,AI技术及新产品开发发展不及预期风险技术及新产品开发发展不及预期风险,外部制裁加剧风险外部制裁加剧风险,宏观经济需求下行风险宏观经济需求下行风险。3 3ChatGPT相关上市公司及近期涨跌幅(截至相关上市公司及近期涨跌幅(截至20232023年年2 2月月1414日)日)相关上市公司相关上市公司分类公司名代码市值(亿元人民币)ChatGPT 2022年11月30日上线至今涨跌幅2023年初至今涨跌幅CPU龙芯中科688047.SH488.7849%43%海光信息688041.SH1,235.8528%33%中科曙光603019.SH425.8824%31%英特尔INTC.O8,049.41-4%9%AMDAMD.O9,134.637%28%GPU景嘉微300474.SZ381.5145%54%英伟达NVDA.O36,527.9029%49%AI芯片寒武纪-U688256.SH342.6235%57%澜起科技688008.SH713.46-7%0%MobileyeMBLY.O2,343.4450%22%FPGA紫光国微002049.SZ1,032.70-8%-8%复旦微电688385.SH443.24-9%-1%安路科技-U688107.SH283.4313%10%DPU左江科技300799.SZ136.254%2%IP芯原股份-U688521.SH308.6630%41%AI SoC瑞芯微603893.SH368.6214%28%晶晨股份688099.SH348.4112%20%富瀚微300613.SZ152.0618%32%PCB兴森科技002436.SZ205.111%25%胜宏科技300476.SZ155.6328%39%生益电子688183.SH94.0011%21%沪电股份002463.SZ294.9323%31%先进封装长电科技600584.SH513.5815%25%通富微电002156.SZ334.5828%34%甬矽电子688362.SH112.76-1%27%华峰测控688200.SH276.3223%10%长川科技300604.SZ289.65-17%8%存储美光MU.O4,470.815%20%资料来源:Wind,中信证券研究部目录目录CONTENTS41.ChatGPT是什么是什么OpenAI开发的聊天机器人,拥有创造能力开发的聊天机器人,拥有创造能力2.GPGPU是什么是什么3.GPGPU的壁垒是什么的壁垒是什么4.GPGPU主要应用场景主要应用场景5.国内国内GPGPU发展水平发展水平5 5不同于分析式不同于分析式AI只能做些分析型或机械式的认知计算只能做些分析型或机械式的认知计算,生成式生成式AI可以创造有意义并具备美感的东西可以创造有意义并具备美感的东西,而且在某些情况下而且在某些情况下,其生成的结果可能其生成的结果可能比人类手工创造的还要好比人类手工创造的还要好。机器可以分析数据,并针对不同用例需求找到相应的规律,且在不断迭代,变得越来越聪明,这种机器被称为“分析式人工智能”(Analytical AI),或者传统AI。机器并非如之前那样仅分析已有的数据,而是创造了全新的东西,这一新型的AI被称为“生成式人工智能”(Generative AI)。2017年谷歌推出一种用于自然语言理解的新型神经网络架构年谷歌推出一种用于自然语言理解的新型神经网络架构Transformers模型模型,不但能生成质量上乘的语言模型不但能生成质量上乘的语言模型,同时具有更高的可同时具有更高的可并行性并行性,大大降低了所需的训练时间大大降低了所需的训练时间。这些小样本学习模型这些小样本学习模型,可以更容易地针对特定领域做定制修改可以更容易地针对特定领域做定制修改。2015-2020年,用于训练这些模型的计算量增加了6个数量级,其表现在手写、语音和图像识别、阅读理解和语言理解方面超过了人类的基准水平。资料来源:机器学习三个时代的计算趋势Sevilla等人,arXiv,2022,生成式AI:充满创造力的新世界红杉汇内参微信公众号资料来源:生成式AI:充满创造力的新世界红杉汇内参微信公众号随着随着AI模型逐渐发展壮大,已经开始超越人类的基准水平模型逐渐发展壮大,已经开始超越人类的基准水平生成式生成式AI的应用格局的应用格局1.1 生成式生成式AI:实现创造,部分领域的能力超越人类的基准水平:实现创造,部分领域的能力超越人类的基准水平6 6预训练模型使得模型的训练可以被复用预训练模型使得模型的训练可以被复用,大幅降低训练成本大幅降低训练成本,但是前期需要大量的数据进行预训练但是前期需要大量的数据进行预训练。预训练模型是一种迁移学习的应用,对句子每一个成员的上下文进行相关的表示,通过隐式的方式完成了语法语义知识的学习。预训练模型通过微调的方式具备很强的扩展性,每次扩展到新场景时,只需要针对这个场景的特定标注数据进行定向的学习,便可以快速应用。2018年以来年以来,国内外超大

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开