温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
申万宏源
AI
行业
系列
点评
ChatGPT
AIGC
九问九答
本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。1 1 行业及产业 行业研究/行业点评 证券研究报告 计算机 2023 年 02 月 06 日 ChatGPT/AIGC 九问九答 看好 AI 行业系列点评 相关研究 计算机主线会持续吗?AIGC FAQ几大问 题!-计 算 机 行 业 周 报20230130-20230203 2023 年 2 月 4日 数字经济+chatGPT+港股科技,均预示科技全面机会!-计算机行业周报20230116-20230120 2023 年 1月 29日 证券分析师 洪依真 A0230519060003 林起贤 A0230519060002 刘洋 A0230513050006 联系人 洪依真(8621)23297818 本期投资提示:近期市场对于 AIGC/ChatGPT 关注较高,投资者常见以下问题。Q:大规模预训练模型(大模型)与小模型的核心区别?相比小模型,大模型有什么优势?首先最核心区别在于参数量,例如 GPT-3 参数量达到了 1,750 亿个,是传统深度学习小模型参数量的至少一万倍以上。通过模型的扩大,可以带来提升包括:1)GPT-2 等大模型舍弃了小模型中常见的调参过程,转向无监督训练;2)在 NLP 中常见小模型需要对不同的任务使用不同模型分别训练解决,而 GPT-3 等大规模预训练模型不再规定任务,而是对不同任务都有较好效果;3)GPT-3 先使用海量数据预训练大模型,得到一套模型参数,然后用这套参数对模型进行初始化,再进行训练。大幅降低后续对数据量的需求。Q:GPT-3等大模型和Transformer的关联?GPT/Bert等大模型都在自然语言领域应用。而 Transformer 是目前 NLP 领域效果较好的深度学习模型,因此 GPT/Bert 等都使用了Transformer。Transformer 最大的特点是,可以让每个单元都可以捕捉到整句的信息,这也是 RNN/LSTM 等更早期 NLP 模型无法做到的一点。Q:Transformer 对于 CV 机器视觉可以有类似 NLP 的提升吗?实际上 2017 年transformer 推出之后,2018 年就有学者将其应用于 CV 图像领域,但当时应用效果未发现相比传统 CNN 等算法有较大提升。但在 2021 年后,随着 swin transformer、mae 等论文推出,transformer 在 CV 和跨模态等应用增加。因此国内擅长 CV 的 AI 公司,在 2022年前对于基于 transformer 的大模型关注投入较少,但是我们认为随着 VIT 等效果提升,应用类的 CV 公司也会开始关注并投入大模型。Q:国内 transformer 大模型做的怎样?如何看待中美技术差距。首先需要承认这一类大模型底层创新在美国开始。中国在 2021 年后加速追赶。此前国内大部分视觉类 AI 公司都以小模型路线为主,投入大模型研发较多的包括百度、华为等。百度推出文心大模型,基本实现跨模态和多下游应用。华为推出最大中文语言预训练模型盘古大模型。Q:怎样的公司有机会参与大模型底层技术研发?我们认为大模型对存储、算力要求极高,且对于开发者对深度学习框架使用也有要求,普通机构难以复现。Q:上市公司中有哪些机会呢?计算机:泛 AI 领域是相关主线。稳健标的如 AI 领军、科大讯飞、万兴科技、虹软科技,弹性标的为云从科技、汉王科技、博彦科技、商汤科技(H)。互联网:看好国内 AIGC 市场,持续跟进 AIGC 的技术发展和文本、音频、图像等单模态的应用落地。重点关注技术驱动的初创代表企业、科研院所,以及与应用场景关联的 A 股上市公司。相关标的:中文在线、汉仪股份、视觉中国、蓝色光标。风险提示:大模型技术中美仍存在差异,部分技术尚处于早期实验室阶段,存在落地风险;实体清单等可能对训练硬件产生影响。请务必仔细阅读正文之后的各项信息披露与声明 扫码进群领取3、最新业报告、公司研究、专业咖分享1、优质研报免费获取,业报告定期打包2、每推送业最新深度研报(精选10篇)本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。2 2 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 2 页 共 13 页 简单金融 成就梦想 近期市场对于 AIGC/ChatGPT 关注较高,投资者常见以下问题。Q1:大规模预训练模型(大模型)与小模型的核心区别?相比小模型,大模型有什么优势?首先最核心区别在于参数量,例如 GPT-3 参数量达到了 1,750 亿个,是传统深度学习小模型参数量的至少一万倍以上。通过模型的扩大,可以带来提升包括:1)GPT-2 等大模型舍弃了小模型中常见的调参 Fine-Tuning 过程,转向容量更大、无监督训练。2)在自然语言理解 NLP 中,常见任务包括翻译、问答、文本填空等,常见小模型需要对不同的任务使用不同模型分别训练解决,而 GPT-3 等大规模预训练模型不再规定任务,而是对以上不同任务都有较好效果;可以理解为,一个饱读诗书的人,应该会写作、对话、阅读理解等多种技能,而不需要对单独技能训练;图 1 预训练大模型在综合大量信息后可以用于多范围任务 资料来源:On the Opportunities and Risks of Foundation Models、申万宏源研究 3)传统的模型训练方式是反向传播算法,先对网络中的参数进行随机初始化(预训练大模型中不是随机初始化的),再利用随机梯度下降等优化算法不断优化模型参数,这种方式下对数据需求量较大。GPT-3 先使用海量数据预训练大模型,得到一套模型参数,然后用这套参数对模型进行初始化,再进行训练。大幅降低后续对数据量的需求。图 2 参数量较大的模型在即使在 Few-shot 下也有很好的表现 本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。3 3 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 3 页 共 13 页 简单金融 成就梦想 资料来源:Language Models are Few-Shot Learners,申万宏源研究 Q2:因此大规模预训练思路对 AI 应用落地有什么帮助?小模型时代,商用模型开发会综合考虑调参等研发投入量和带来的商业价值,模型开发出来后能否复用以摊薄研发成本,同时对于部分训练样本量较少的场景,没有很好解决方法。大模型可以在长尾场景应用落地,降低训练成本、减少数据要求。基于大规模预训练思路,一方面大模型可以应对多个泛化任务,大模型+细分场景微调,更适合长尾落地;另一方面,对于小样本(few shot)训练,大模型也有较好提升。Q3:GPT-3 等大模型和 Transformer 的关联?GPT/Bert 等大模型都在自然语言领域应用。而 Transformer 是目前 NLP 领域效果较好的深度学习模型,因此 GPT/Bert 等都使用了 Transformer。此前 NLP 模型问题是:例如 RNN、LSTM,基本做法是把一段话拆分成多个单元,然后按前后顺序依次输入,输入的 LSTM 或 RNN 模块可以根据训练中句子的长度进行调整,较短的句子可以通过占位符进行补齐。也就是说当输入第 n 个词的时候,机器仅有前 n-1个词的信息。即实际训练无法充分发挥这些输入之间的关系而导致模型训练结果效果极差。即使尝试用 CNN 解决这个问题,但需要叠加很多层,才能捕捉长远的信息。图 3 Transformer 的详细结构 本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。4 4 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 4 页 共 13 页 简单金融 成就梦想 资料来源:Attention Is All You Need、申万宏源研究 Transformer 引入了 Self-Attention 自注意力机制:让机器注意到整个输入中不同部分之间的相关性。Transformer 最大的特点是,可以让每个单元都可以捕捉到整句的信息,这也是 RNN/LSTM 等更早期 NLP 模型无法做到的一点。Q4:那 Transformer 对于 CV 机器视觉可以有类似 NLP 的提升吗?实际上 2017 年 transformer 推出之后,2018 年就有学者将其应用于 CV 图像领域,但当时应用效果未发现相比传统 CNN 等算法有较大提升。当时常见做法是将自注意力和CNN 一起使用,而原有结构基本不变,对于传统卷积神经网络仍有较高依赖。Transformers 用在 CV 上的难点。对于一个 Transformer 的 encoder,输入元素是一个个的单词,输出是一些元素。Transformers 自注意力操作中,每个元素需要和每个元素互相进行两两互动,最后算得一个 Attention 自注意力图,通过加权平均,最后得到输出。由于单元间两两互动,因此复杂度是序列长度的平方,也就是 n2,在自然语言处理中,一个句子的长度一般就是几百或上千,例如 BERT 为 512 序列长度。而对于一个比较常见的 224 x 224 大小的图片,如果直接以每一个像素点为单位进行两两互动的话,那序列长度为 50176,大概为 BERT 序列长度的 100 倍,因此复杂度极高。但在 2021 年后,随着 swin transformer、mae 等论文推出,transformer 在 CV和跨模态等应用增加。图 4 图像分类任务中使用 Vision Transformer 取得了较好的结果 本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。5 5 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 5 页 共 13 页 简单金融 成就梦想 资料来源:、申万宏源研究 例如 2021 年 google 将尝试将自注意力机制和 transformer 直接应用在图像领域。在不依赖 CNN 结构的情况下,如何尽可能地讲 NLP 领域的标配Transformer 不做修改的迁移到 CV 领域,并取得了较好的效果。图 5 2021 年 google 的 Vision Transformer 论文的核心思路 资料来源:AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE、申万宏源研究 例如 2022 年引入的 MAE 方法。masked autoencoders(MAE)方法是随机 mask(遮罩)掉一部分像素,能极大加速模型的训练速度并提升准确率。由于语言的信息密度更高,mask 部分文字可能使得语义完全不同;而图像的冗余度就很高,因此 mask 掉部分信息可以大大减少冗余。图 6 MAE 的核心思路 本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。6 6 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 6 页 共 13 页 简单金融 成就梦想 资料来源:Masked Autoencoders Are Scalable Vision Learners、申万宏源研究 因此,国内擅长 CV 的 AI 公司,在 2022 年前对于基于 transformer 的大模型关注投入较少,但是我们认为随着 VIT 等效果提升,应用类的 CV 公司也会开始关注并投入大模型。Q5:为何 GPT-3 在 2020 年就推出了,而资本市场近期才开始对大模型高关注?2020 年的 GPT-3 仍有较多缺陷,其中无法商用的最大问题是输出结果有毒或不真实,OpenAI 2022 年 1 月正式公开了改良版 InstructGPT。比 GPT-3 小了 100 多倍,仅有 13亿个参数。OpenAI 使用了一种通过人类反馈来强化学习(RLHF)的现有技术。OpenAI根据用户和 API 的交互结果,对模型的多个输出进行了排名,然后再利用这些数据微调GPT-3,大幅减少了有毒结果的输出。图 7 InstructGPT 的输出结果比 GPT-3 提升 图8 GPT-3最被诟病的毒的结果(RealToxicityPrompts)在 InstructGPT 中减少 资料来源:Training language models to follow instructions with human feedback、申万宏源研究 资 料 来 源:Training language models to follow instructions with human feedback、申万宏源研究 因此,我们现在看到的 ChatGPT 可以优化负面结果,比如提问“如何闯空门”,机器会回答“这并不合适”,同时连贯对话也更加流畅,达到了可以商用的效果。本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。7 7 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 7 页 共 13 页 简单金融 成就梦想 同样的情况在 AIGC 图片生成领域也存在。2021 年 OPEN AI 就推出了图片生成工具包 DALL-E,但是此时图像像素仍然较低。2022 年后,OPEN AI 进一步引入 Diffusion 等方式,使得图片像素提升 4 倍以上,且同时模型真实度可以维持,并在此基础上推出全新工具包 DALL-E2。此时较高像素下生成的图片可以开始达到商用的效果。图 9 DALLE 设计“一颗白菜穿着芭蕾舞裙在遛狗”图 10 DALLE-2 设计“一碗汤是另一个次元的入口 资料来源:申万宏源研究 资料来源:申万宏源研究 Q6:为何也有人认为 GPT 等大模型并未对 NLP 做出颠覆式创新?传统 NLP 最大缺陷,即自然语言理解、缺乏逻辑等问题,在 GPT中仍未被解决。GPT等模型依赖于大规模离线收集的语料进行训练,但是对于在线提供的即时信息,往往并不能进行充分理解并且纳入自己的回复中。更进一步的,对于对话中提供的因果关系,ChatGPT 也往往缺乏很好的理解能力。例如提问:韩梅梅喜欢画画,她的儿子也是。李华是韩梅梅唯一的儿子。所以李华喜欢画画吗?ChatGPT:不太清楚李华是否喜欢画画。此外,GPT 会给出部分问题貌似合理但不正确或荒谬的答案,或者过度使用一些词句和特定表达,同时缺乏类似人类的举一反三的能力等。Q7:国内 transformer 大模型做的怎样?如何看待中美技术差距。首先,需要承认这一类大模型底层创新在美国开始,包括 2017 年 Google Attention Is All You Need 首次提出了 NLP 模型 Transformer,OpenAI 的 GPT-3 等。中国在 2021年后加速追赶,尤其是在 CV 大模型和多模态融合。据国内 OpenBMB 开源社区统计,目前,在全球超千亿参数的大模型中,中国企业或机构贡献了 1/3,美国贡献了 1/2,世界其他国家或组织贡献了剩下的 1/6。本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。8 8 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 8 页 共 13 页 简单金融 成就梦想 此前国内大部分视觉类AI公司都以小模型路线为主,投入大模型研发较多的包括百度、华为等,优势可能会在多模态融合。图 11 大模型/小模型两类公司路线区别 资料来源:申万宏源研究 百度文心大模型:NLP+CV,基本实现跨模态和多下游应用。应用场景涵盖:NLP 大模型、CV 大模型、跨模态大模型、生物计算大模型、行业大模型。API 包括了:1)ERNIE 3.0 文本理解与创作:预置作文生成、文案创作、情感分析等任务提示,2)ERNIE-ViLG AI 作画大模型,3)PLATO 大模型开放域对话服务。图 12 百度文心大模型和多行业工具平台 资料来源:百度文心官网,申万宏源研究 华为盘古大模型:最大中文语言预训练模型。2021 年 4 月华为发布千亿参数 40TB 训练数据的全球最大中文语言(NLP)预训练模型,30 亿参数的全球最大视觉(CV)预训练模型。将 P-tuning、priming 等最新技术融入到盘古的微调框架中,提升微调效果;在样本极少的情况下,盘古的少样本学习能力远超 GPT 系列和 BERT 系列;要得到相同的 F1结果,盘古所需的数据量仅为中文 GPT-3 的 1/9,实现了近 10 倍的生产效率提升。Q8:怎样的公司有机会参与大模型底层技术研发?我们认为大模型对存储、算力要求极高,且对于开发者对深度学习框架使用也有要求,普通机构难以复现。本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。9 9 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 9 页 共 13 页 简单金融 成就梦想 据 NVIDIA 估算,如果要训练 GPT-3,即使单个机器的显存/内存能装得下,用 8 张 V100 的显卡,训练时长预计要 36 年;即使用 512 张 V100,训练也需要将近 7 个月;如果拥有 1024 张 80GB A100,那么完整训练 GPT-3 的时长可以缩减到 1 个月。以微软与 OpenAI 合作建造 的 Azure A 工智能算力平台为例,该算力平台投资约 10亿美元,使用该超算中心训练一次超大模型 GPT-3 大约花费 1200 万美元。同时解决分布式训练问题:上百台服务器之间的通信、拓扑、模型并行、流水并行等问题,模型训练是显存峰值问题。因此 GPT-3 发布一年后,只有 NVIDIA、微软等大企业可以复现。Q9:如果底层算法进入壁垒很高,目前看只有互联网巨头领先,那么上市公司中有哪些机会呢?计算机:泛 AI 领域是相关主线。稳健标的如 AI 领军、科大讯飞、万兴科技、虹软科技,弹性标的为云从科技(上证 e 互动平台公开披露了视觉语音 NLP 都类似 chatGPT 的“预训练模型+反馈调优”路线)、汉王科技(互动易平台公开披露了 NLP 技术积累和项目)、博彦科技、商汤科技(H)。当前,结合相关主线和已有涨幅,格灵深瞳、虹软科技、当虹科技等值得重视。互联网:看好国内 AIGC 市场,持续跟进 AIGC 的技术发展和文本、音频、图像等单模态的应用落地。重点关注技术驱动的初创代表企业、科研院所,以及与应用场景关联的 A股上市公司。相关标的:中文在线、汉仪股份、视觉中国、蓝色光标。此外,部分游戏公司也深度参与 AIGC 应用,腾讯控股 AI 领域深耕多年(优图等),内容领域龙头;网易旗下易智、伏羲、天音、有道智云等 AI 平台涵盖计算机视觉、数字孪生、人际交互、AI 音乐创作等方向;三七互娱率先应用智能化投放系统;吉比特 AI 等新方向持续探索跟踪,内容创新能力强;巨人网络拥有AI 实验室,playtika大数据和 AI是其核心能力;心动公司taptap有望受益于 AIGC 实现内容提质增量。昆仑万维发布昆仑天工,AIGC 全系列算法与模型开源;神州泰岳 NLP 研发应用深耕多年,游戏出海排名前列。恺英网络 VR 等创新方向积极布局。表 1:AIGC、AI、大模型相关业务的标的 公司名称 AIGC&AI 模态应用领域 商业模式 主要进展 中文在线 主打文本 创作者辅助工具 AI 文字辅助创作功能已上线,并向公司 17K 文学平台全部作者开放;同时推出 AI 绘画功能。汉仪股份 主打文本 形成 AIGC 字库技术储备阶段。汉仪字库与阿里巴巴合作推出首款 AI 字体“阿里汉仪智能黑体”。昆仑万维 主打音频 已经正式销售 AI 作曲,并与音乐公司达成歌曲代销、与车企达成 AIGC 战略合作、与游戏公司签约 BGM等合作。StarX旗下音频社交领域产 StarMarker 搭建了 MusicX Lab音乐实验室,聚焦 AI 音乐生成和 AI 作曲。发布 昆仑天工AIGC 全系列算法与模型,并宣布模型开源。视觉中国 主打图像 AICG 作为创作者辅助工具 拥有高质量图片数据集,能通过 AIGC 生成艺术照片。视觉中国与百度旗下的 AI 作画平台文心一格将在创作者赋能和本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。1010 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 10 页 共 13 页 简单金融 成就梦想 公司名称 AIGC&AI 模态应用领域 商业模式 主要进展 版权保护等方面展开多项合作。蓝色光标 主打图像 创作者辅助工具 AI 视频生成平台“蓝标分身”;AI 一键抽象生成智能画平台“创意画廊”,主打“康定斯基”风格创作。万兴科技 主打图像 在单个微信用户 5 次免费关键词创作基础上,主要通过售卖额外创作次数变现。旗下软件“万兴 AI 绘画”已在微信小程序公测。科大讯飞 语音起点,图像/文本/语义等综合 AI 产品+解决方案+云平台 AI 教育领域成熟有收入利润,医疗、政府等 AI 收入高增。虹软科技 主打图像图形 AI 软件产品+版权费模式 手机领域高市占率,汽车领域开始前装量产。云从科技 图像和音频 NLP 投入阶段,有较多 AI 项目 上证 e 互动平台公开披露了视觉语音 NLP 都类似 chatGPT的“预训练模型+反馈调优”路线。汉王科技 主打图像 AI 一些 NLP 项目 互动易平台公开披露了 NLP 技术积累和项目。商汤科技(H)语音/图像/文本/语义等综合 是大模型领军之一。打造的 AIGC 解决方案 商汤虚拟 IP 解决方案 拥有大规模高质量 3D 动作库,通过 AI 对大量真人动作数据进行深度学习,可以实现高效率、低成本的内容生成,已经银行等场景落地 美图(H)图像 升级产品功能的辅助工具 旗下应用程序美图秀秀(Meitu)上新 AI 绘画功能 百度(H)语音/图像/文本/语义等综合 大模型领军。推出文心一格,支持图片生成;升级“生成式搜索”能力;发布了新一代 AIGC 营销内容生产工具 20230201 新增扩散标的 金山办公 文本/图像/语义 AI 嵌入办公软件,提供具备写作素材推荐、中文校对等语义理解功能以及格式美化等办公智能功能的 AI 助手,并以订阅形式收取增值服务费用 WPS 套件均已融入 AI 能力(素材推荐、校对、排版、美化等),智能写作研发项目已顺利完成,并搭建基于人工智能的文档创作服务平台 海天瑞声 语音/图像等 AI 训练数据专业提供商 为AI产业链上的各类机构提供 AI算法模型开发训练所需的专业数据集。发行人所提供的训练数据覆盖智能语音(语音识别、语音合成等)、计算机视觉、自然语言等多个 AI 核心领域 拓尔思 语义 AI 产品+解决方案 公司是国内最早从事自然语言处理(NLP)研发的企业之一,在 NLP、知识图谱、OCR、图像视频结构化领域都具备自主可控的底层技术,处于行业领先地位 当虹科技 视频 为电视台、新媒体、互联网、泛媒体行业等客户提供通过 AI 技术进行短视频、长视频的生产/加工等解决方案 提供 AI 智能剪辑;用 AIGC 的方式自动生成对应短视频,极大程度上简化了流程提高了效率,保证了视频上线的时效性 二六三 语义 虚拟数字人应用了基于 AIGC 技术的NLP 问答技术,业务尚处于研究和探索阶段 公司制作的虚拟数字人可在各类活动中担任虚拟主持人、AI 讲师、AI 客服等工作。公司制作的虚拟数字人在语音交互功能中应用了基于 AIGC 技术的 NLP 问答技术 同花顺 语义/文本等综合 AI 产品+解决方案+平台 同花顺 AI 开放平台,可面向客户提供数字虚拟人、智能金融问答、智能语音、智能客服机器人、智能质检机器人、会议转写系统、智慧政务平台、智能医疗辅助系统等 40 余项人工智能产品及服务,应用于证券、基金、银行、保险、运营商、高校、企业、科研院所、政府部门等多个行业 佳都科技 语义 公司投资云从科技(计算机视觉)、思必思必驰已经掌握全链路语音及语言交互技术,涵盖语音信号本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。1111 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 11 页 共 13 页 简单金融 成就梦想 公司名称 AIGC&AI 模态应用领域 商业模式 主要进展 驰科技(语音语义识别)处理、识别、合成、语言理解、问答聊天、知识图谱等人机信息交互闭环涉及的各个模块级技术 三人行 语义 AIGC 技术的应用经验快速积累阶段 创意团队利用包括 ChatGPT、shopify等 AIGC 工具不仅可以回应客户提出的各类需求,还能为文案、平面、视频等广告创意作品提供海量创意思路参考 中科金财 语义 AIGC 应用于内容创作平台 公司发布了中科金财“元宇宙技术服务矩阵”,其中,公司基于 WEB3.0 规则架构,研发了数字人内容制作引擎、元宇宙场景开发工具,并通过 AIGC 的企业级内容互动创作平台,实现与中科金财元宇宙数字化营销平台“觅际”融合 彩讯股份 图像/语义 AI 技术储备阶段 公司服务客户的企业邮件系统、智能外呼等产品和业务与人工智能驱动的自然语言处理工具都有相当好的结合空间 浙文互联 图像 社区创作者辅助工具 旗下米塔数字艺术创作社区加入 AIGC 功能 掌阅科技 文本 创作者辅助工具,尚在储备期 公司 11 月表示将在文本创作者生态优势基础上加强 AIGC储备和研发。传智教育-IT 培训 AIGC 相关课程 天娱数科 语义 公司制作的虚拟数字人在语音交互功能中应用了基于AIGC技术的NLP问答技术 旗下元境科技自主研发的“MetaSurfing-元享智能云平台”的升级上线,平台纳入了 AIGC 的技术路线后,仅需上传一段视频、一段录音即可实时生成 1:1 高度还原的数字形象与声音,通过文本语音即可一键实时驱动数字形象生成视觉内容视频 资料来源:公司公开信息,互动易平台,上证 e 互动平台,Wind,Choice 表 2:AI 行业重点公司估值表 公司名称 2023/2/3 Wind 一致预期归母净利润(亿元)PE PB(LF)总市值 2021A 2022E 2023E 2024E 2021A 2022E 2023E 2024E(亿元)中文在线 86 0.99-0.94 1.71 2.06 87-92 50 42 5.70 昆仑万维 219 15.47 11.73 13.54 15.69 14 19 16 14 1.83 视觉中国 121 1.53 1.37 1.97 2.55 79 88 61 47 3.57 蓝色光标 143 5.22-0.28 6.57 8.27 27-511 22 17 1.48 万兴科技 52 0.28 0.99 1.57 2.04 186 52 33 25 6.16 科大讯飞 1,019 15.56 14.33 22.86 31.14 65 71 45 33 6.40 虹软科技 113 1.41 1.29 1.92 2.81 80 87 58 40 4.40 云从科技-uw 212-6.32-4.06-5.23-0.37-34-52-41-572 9.05 汉王科技 66 0.54 0.18 0.91 1.08 122 366 73 61 4.44 金山办公 1,490 10.41 12.13 16.80 22.61 143 123 89 66 17.77 海天瑞声 50 0.32 0.21 0.52 1.00 157 241 95 50 6.09 拓尔思 136 2.46 3.14 4.06 5.19 55 43 33 26 5.12 当虹科技 37 0.61 0.67 1.06 1.44 60 56 35 26 2.60 二六三 93 0.33 0.81 1.02 1.20 277 115 91 77 3.97 同花顺 650 19.11 18.44 23.09 28.30 34 35 28 23 10.09 佳都科技 130 3.14-0.79 5.08 7.13 41-164 26 18 1.81 三人行 123 5.05 7.33 10.24 13.29 24 17 12 9 5.76 本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。1212 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 12 页 共 13 页 简单金融 成就梦想 彩讯股份 90 1.49 2.08 2.83 3.80 60 43 32 24 4.05 浙文互联 74 2.94 2.84 4.14 5.23 25 26 18 14 1.82 掌阅科技 76 1.51 1.74 2.37 2.88 51 44 32 26 2.97 传智教育 79 0.77 1.88 2.31 2.85 103 42 34 28 5.98 天娱数科 84 0.43 0.12 0.45 0.62 196 671 187 134 3.20 资料来源:Wind、申万宏源研究 风险提示:大模型技术中美仍存在差异,部分技术尚处于早期实验室阶段,存在落地风险;实体清单等可能对训练硬件产生影响。本研究报告仅通过邮件提供给 中庚基金 使用。本研究报告仅通过邮件提供给 中庚基金 使用。1313 行业点评 请务必仔细阅读正文之后的各项信息披露与声明 第 13 页 共 13 页 简单金融 成就梦想 信息披露 证券分析师承诺 本报告署名分析师具有中国证券业协会授予的证券投资咨询执业资格并注册为证券分析师,以勤勉的职业态度、专业审慎的研究方法,使用合法合规的信息,独立、客观地出具本报告,并对本报告的内容和观点负责。本人不曾因,不因,也将不会因本报告中的具体推荐意见或观点而直接或间接收到任何形式的补偿。与公司有关的信息披露 本公司隶属于申万宏源证券有限公司。本公司经中国证券监督管理委员会核准,取得证券投资咨询业务许可。本公司关联机构在法律许可情况下可能持有或交易本报告提到的投资标的,还可能为或争取为这些标的提供投资银行服务。本公司在知晓范围内依法合规地履行披露义务。客户可通过 索取有关披露资料或登录 信息披露栏目查询从业人员资质情况、静默期安排及其他有关的信息披露。机构销售团队联系人 华东 A 组 陈陶 021-33388362 华东 B 组 谢文霓 18930809211 华北组 李丹 010-66500631 华南组 李昇 0755-82990609 L 股票投资评级说明 证券的投资评级:以报告日后的 6 个月内,证券相对于市场基准指数的涨跌幅为标准,定义如下:买入(Buy)增持(Outperform)中性(Neutral)减持(Underperform):相对强于市场表现20以上;:相对强于市场表现520;:相对市场表现在55之间波动;:相对弱于市场表现5以下。行业的投资评级:以报告日后的6个月内,行业相对于市场基准指数的涨跌幅为标准,定义如下:看好(Overweight)中性(Neutral)看淡(Underweight):行业超越整体市场表现;:行业与整体市场表现基本持平;:行业弱于整体市场表现。我们在此提醒您,不同证券研究机构采用不同的评级术语及评级标准。我们采用的是相对评级体系,表示投资的相对比重建议;投资者买入或者卖出证券的决定取决于个人的实际情况,比如当前的持仓结构以及其他需要考虑的因素。投资者应阅读整篇报告,以获取比较完整的观点与信息,不应仅仅依靠投资评级来推断结论。申银万国使用自己的行业分类体系,如果您对我们的行业分类有兴趣,可以向我们的销售员索取。本报告采用的基准指数:沪深300指数 法律声明 本报告仅供上海申银万国证券研究所有限公司(以下简称“本公司”)的客户使用。本公司不会因接收人收到本报告而视其为客户。客户应当认识到有关本报告的短信提示、电话推荐等只是研究观点的简要沟通,需以本公司 http:/ 网站刊载的完整报告为准,本公司并接受客户的后续问询。本报告首页列示的联系人,除非另有说明,仅作为本公司就本报告与客户的联络人,承担联络工作,不从事任何证券投资咨询服务业务。本报告是基于已公开信息撰写,但本公司不保证该等信息的准确性或完整性。本报告所载的资料、工具、意见及推测只提供给客户作参考之用,并非作为或被视为出售或购买证券或其他投资标的的邀请或向人作出邀请。本报告所载的资料、意见及推测仅反映本公司于发布本报告当日的判断,本报告所指的证券或投资标的的价格、价值及投资收入可能会波动。在不同时期,本公司可发出与本报告所载资料、意见及推测不一致的报告。客户应当考虑到本公司可能存在可能影响本报告客观性的利益冲突,不应视本报告为作出投资决策的惟一因素。客户应自主作出投资决策并自行承担投资风险。本公司特别提示,本公司不会与任何客户以任何形式分享证券投资收益或分担证券投资损失,任何形式的分享证券投资收益或者分担证券投资损失的书面或口头承诺均为无效。本报告中所指的投资及服务可能不适合个别客户,不构成客户私人咨询建议。本公司未确保本报告充分考虑到个别客户特殊的投资目标、财务状况或需要。本公司建议客户应考虑本报告的任何意见或建议是否符合其特定状况,以及(若有必要)咨询独立投资顾问。在任何情况下,本报告中的信息或所表述的意见并不构成对任何人的投资建议。在任何情况下,本公司不对任何人因使用本报告中的任何内容所引致的任何损失负任何责任。市场有风险,投资需谨慎。若本报告的接收人非本公司的客户,应在基于本报告作出任何投资决定或就本报告要求任何解释前咨询独立投资顾问。本报告的版权归本公司所有,属于非公开资料。本公司对本报告保留一切权利。除非另有书面显示,否则本报告中的所有材料的版权均属本公司。未经本公司事先书面授权,本报告的任何部分均不得以任何方式制作任何形式的拷贝、复印件或复制品,或再次分发给任何其他人,或以任何侵犯本公司版权的其他方式使用。所有本报告中使用的商标、服务标记及标记均为本公司的商标、服务标记及标记。明确分析向明确分析向明确分析向明确分析向产品分析流程 找报告,上烽研报烽研报全业研报聚合检索平台 明确分析向明确分析向明确分析向明确分析向产品分析流程 找报告,上烽研报烽研报全业研报聚合检索平台