1、大模型技术下,算力需求爆发性增长
2022 年 11 月,OpenAI 推出的 ChatGPT 火爆全网,由此拉开了大模型加速发展的序幕。OpenAI 的成功源于其利用了 Transformer 的所遵循的 Scaling Law(规模效应),在增大模型参数数量、训练数据、用于训练是计算量的同时,带来系统能力稳步的增长。甚至在模型参数达到一定量级,模型能力会得到显著提升,表明较大模型有涌现能力。
因而,我们看到 OpenAI 在模型下一代模型中,不论参数量还是数据集都有显著的增长。GPT、GPT-2、GPT-3、GPT-4 的模型(最大)参数分别为 1.17 亿、15 亿、1750 亿、1.8 万亿,训练数据也从 GPT 约 7000 本书的 BooksCorpus,增加到 GPT-2 的互联网数据抓取的 WebText,到 GPT-3 约大 10 倍于 WebText 的 CommonCrawl。
2、推理模型将 Scaling 向后训练和推理阶段转移,应用落地加大推理需求
随着模型持续增大,我们看到 Scaling Law 失效的风险。一方面,高质量数据已经作为训练数据,面临增长瓶颈,另一方面,头部模型厂商在更大参数的新一代模型的推进方面进度不及预期。对于前者,人类试图通过合成数据提高数据供给量,对于后者而言,也有DeepSeek-V3 这样的模型,探讨出了更多节省算力的工程改进方案,谷歌的 DiLoCo 也试图通过分布式训练解决模型持续增长的问题,为更大参数规模的模型预训练创造了可能性。
o1 为代表的推理模型的出现,探索出了大模型能力提升的新路径。此前的大模型在逻辑推理能力方面能力不足,导致科学界对于 LLM 的技术路线能否在提高语言能力的同时,高效提高逻辑能力和推理能力存在较大质疑,而 OpenAI 的 o1 有效提升了大模型解决科学、编码、数学和类似领域的复杂问题。
推理模型改变了原有大模型在预训练上 Scaling 的范式,将算力开销进一步向后训练和推理阶段转移。以 DeepSeek-V3 为例,我们看到其在预训练阶段的训练时间为 266.4 万H800 GPU 小时,文本延伸需要 11.9 万 GPU 小时,而后训练只需要 0.5 万 GPU 小时。
推理模型通过对基础模型进行强化学习等后训练过程来提升逻辑推理能力。DeepSeekR1 的训练过程来看,DeepSeek 使用 DeepSeek-V3-Base 作为基础模型,通过强化学习(RL)训练出了 DeepSeek-R1-Zero,又在 R1-Zero 训练方法的基础上加入了多阶段的训练,解决可读性差和语言混合等问题。
在 DeepSeek-R1-Zero 的训练中,通过增加强化学习的训练迭代步数,其思考的时间在持续增加,AIME 精度也在持续提升。推理模型使用的推理策略在很大程度上基于思维链,模型用它们来思考问题、将问题分解成更简单的步骤、尝试各种解决问题的方法,也可以纠正自己的错误。而思维链的生成也导致了模型在推理过程中的算力大幅增长。
同时,DeepSeek - R1 发布后,大模型逻辑推理能力的提升、大模型成本显著下降、开源阵营在性能上实现超越,AI 应用集齐全面落地的三大关键要素。随着 AI 应用进入爆发期,应用端的推理需求将成为下一阶段拉动算力增长的主要驱动力。
3、截止 2024 年底,我国智能算力建设领先于国家整体规划水平
在全国总体算力发展目标方面,我们设定了 2025 年的发展目标。根据 2023 年 9 月工信部等六部门联合印发的《算力基础设施高质量发展行动计划》,计划在 2025 年算力规模超过300EFLOPS(EFLOPS 是指每秒百亿亿次浮点运算次数),智能算力占比达到 35%,存储总量 1800EB,其中先进存储容量占比 30%,国家枢纽节点数据中心集群间网络时延达标率80%。
从完成情况来看,我们在智算力建设明显领先于规划水平。根据工信部数据,截止 2024年底,我国算力总规模达 280EFLOPS(FP32),其中智能算力 90EFLOPS(FP32),占比达 32%。对比《算力基础设施高质量发展行动计划》给出的 2024 参考值来看,算力总规模超出 20EFLOPS,其中 12EFLOPS 来自智能算力的贡献,智算占比也高于参考值 30%。
2024的存储总量 1580EB,超出参考值 80EB,先进存储占比 28%,与参考指标相当。国家枢纽节点算力中心集群间网络时延达标率超 75%,与参考指标相当。
从算力的行业分布来看,智能算力更大受到了互联网、服务行业的需求驱动,两者需求占比分别为 52.34%和 17.05%,远高于通用算力中 38.65%和 8.78%的占比;教育行业占比3.16%,也较通用算力中 2.9%的占比更高;作为传统需求较大的行业,电信、政府、金融、制造、公共事业的智算需求都有待进一步发掘。
4、AI 驱动了算力建设热情,全球科技厂商仍在积极加大对算力的资本投入
AI 需求带来了数据中心芯片收入的爆发式增长。受到 AI 技术突破的带动,2023Q2 开始,英伟达数据中心收入开始持续上涨。截止 2024Q4,英伟达、AMD、英特尔三大主要芯片厂商的数据中心收入较 2022Q4 增长了 342%。
而从 2023 年以来国内外科技厂商资本投入来看,国内厂商虽然前期投入进程慢于海外,但是在 2024 下半年加速趋势都非常明显。美国 5 大科技厂商(亚马逊、谷歌、Meta、微软、苹果)早在 2023Q4 就超过了前期高点,而国内 3 大厂商(阿里、百度、腾讯)直到2024Q3 才超过前期高点,但是在 2024Q4 获得了同比 260%和环比 99%的增长。
在 2025 年资本开支方面:
海外:亚马逊计划投资 1000 亿美元,谷歌为 750 亿美元,Meta 为 600-650 亿美元,都较上一年有了较为明显的提升,微软也提出了 2025 财年(6 月结束)800 亿的数据中心投资目标。考虑到除了微软以外,其他科技厂商都是在 DeepSeek-R1 发布以后才公布的投资目标,这表明 2025 年全球在 AI 领域的投入仍将呈现快速增长趋势。
国内:阿里未来三年将投入超过 3800 亿元,用于建设云和 AI 硬件基础设施,总额超过去十年的总和。腾讯计划在 2025 年进一步增加资本支出,并预计资本支出将占收入的低两位数百分比。中国移动 2025 年计划资本投入算力 373 亿元,同比增长 0.54%,智算从29.2EFLOPS (FP16)增长到 34EFLOPS,通算达到 8.9 EFLOPS (FP32),推理投资不设上限。中国联通 2025 年在总资本开支下滑 10%的基础上,算力投资同比增长 28%。
英伟达在 2025 年 GTC 上表示,美国前四大云服务供应商 2024 年总计采购 130 万颗Hopper 系列芯片,而 2025 年 3 月总计采购已经 360 万颗 Blackwell 架构芯片,需求持续增长。
5、智算增长推动三大细分市场加速发展
(1)AI 服务器仍将持续快速增长,ASIC 市场有望迎来更快增长势头
由于大模型高速发展,AI 服务器市场持续快速增长。根据 IDC 数据,2024H1 我国 AI 服务器市场规模 50 亿美元,较 2023H1 增长 63%。IDC 预测 2024 中国 AI 服务器市场规模将达到 190 亿美元,同比增长 87%。IDC 预测,预计到 2028 年,AI 服务器市场规模将达到 550亿美元,2023-2028 年年复合增速 40.2%。
从厂商销售额角度看,2023 年浪潮、新华三、宁畅在国内 AI 服务器市场位居前三,占据了近 70%的市场份额;从服务器出货台数角度看浪潮、坤前、新华三位居前三名,占有超过50%以上的市场份额。由于 IDC 未公布 AI 厂商 2023 年具体份额,我们以 2022 年数值作为参考,可以看到浪潮遥遥领先其他厂商,前 8 大厂商还包括新华三、宁畅、安擎、坤前、华为(超聚变)、宝德、思腾合力等。
从 AI 服务器下游行业的来看,2023 年互联网作为最大的采购行业,占整体加速服务器市场近 60%的份额。IDC 预测 GPU 仍将在 AI 芯片中占据主导,但是 2028 年中国 AI 服务器市场中,ASIC 加速服务器的市场占比将接近 40%。由于 GPU 的供应不足,同时互联网厂商出于降本和更好适配的考虑,也将加大自研 ASIC 芯片,利好于 ASIC 的发展。
(2)液冷即将迎来规模化应用
液冷服务器将保持持续高增长。根据 IDC 数据,2023 年我国液冷服务器市场规模 15.5亿美元,同比增长 52.6%。2024H1,我国液冷市场规模 12.6 亿美元,与 2023 年同期相比增长了 98.3%,加速趋势明显。根据 IDC 预测,2023-2028 年,我国液冷服务器市场年复合增速将达到 47.6%,还将保持快速增长势头,2028 年规模将达到 102 亿美元。
随着生成式人工智能的发展,智算需求爆发式增长,同时由于智算中心高密度属性,风冷散热难以满足耗能指标要求,AI 计算、液冷、整机柜的结合将成为未来的发展趋势,液冷行业也迎来了刚需放量的元年。
2025 年运营商有望开启液冷技术的规模化应用。互联网行业作为液冷技术积极的拥抱者,2024 年在液冷服务器市场上的份额从上年同期的 54%提高至 60%。电信运营商也计划在2025 年开展液冷的规模化应用。
从目前液冷发展来看,核心驱动因素为服务器的功率。当芯片性能提升的同时,芯片耗电量相应提升,单机柜的功率也随之提升。由于液体的比热容远高于气体,单位温度变化所需吸收/放出的热量远大于空气,使散热效率得到极大提升,降低风扇、空调等风冷方面的能源消耗,极大降低数据中心 PUE 值。根据 IT 时报的报道,曙光数创测算下,当单个机架功率超过10kW 以后,采用冷板液冷架构的单 kW 制冷成本将低于传统的风冷架构。当前新建机架功率20kW 起步,并向 60kW 普及,对液冷服务器将形成刚性需求。截止 2023 年液冷服务器前 3 大厂商分别为浪潮信息、超聚变、宁畅,市场份额集中度较高。
(3)国产 AI 芯片迎来持续突破
随着美国对中国科技企业的制裁延续,制裁的核心逐步集中在芯片领域,特别是海外 AI芯片采购和国产 AI 芯片的生产制造。2022 年 8 月,美国禁止了英伟达 A100 和即将推出的H100 向中国和俄罗斯的所有出口实施一项新的许可要求。
2022 年 10 月 7 日,美国商务部工业和安全局(BIS)正式宣布了其对中国超算和半导体制造物项实施的出口管制新规,全面加大了对超算和芯片制造领域的限制措施,对我国务高端芯片领域供给产生了全面而深远的影响。2023 年 10 月 17 日,BIS 发布了针对芯片的出口禁令新规,禁运 AI 芯片进一步扩大到英伟达 A100、H100、A800、H800、L40、L40S、RTX 4090 以及集成这些高性能计算卡的DGX/HGX 系统。
2024 年 12 月,BIS 发布了《出口管理条例(EAR)》的修订说明,加强了对HBM、华为产业链、先进制造、国产设备厂商、EDA 的出口限制。2025 年 3 月,BIS 又将浪潮集团子公司及宁畅等企业列入实体清单,加大了对服务器厂商的制裁。此外,美国还加大对新加坡、马来西亚等地的 AI 芯片监管,以防这些产品流向中国。
受制于芯片供应,当前国内 AI 芯片的国产化率持续提升,但是在产业格局上仍有较大的不确定性。根据 IDC 数据,国内 AI 服务器市场中,国产化芯片比例持续提升,从 2023 年上半年的 10%,提升到下半年的 17%,2024 年上半年这一比例又进一步提升到了 20%,这意味着国产芯片在持续发展壮大。但是与此同时,美国从 2024 年 11 月以来,对我国 AI 芯片限制进一步加紧,增加了未来的国内芯片供应上的不确定性。
随着 DeepSeek-R1 的开源,我们看到国产模型找到了在算力不足的情况下,通过软件弥补的可行路径。同时,各家国产 AI 芯片都在积极适配 DeepSeek 的部署,进一步加快了国产芯片在推理端应用的进程。此外,2025 年 3 月,蚂蚁集团成功利用阿里巴巴、华为等国产芯片训练出了 2900 亿参数的大模型“Ling-Plus”,其性能与英伟达 H800 芯片训练的同类模型相当,且训练成本降低 20%,成为了国产芯片在 AI 训练领域又一重要突破的标志性事件。
更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑设计、境外投资报告等相关咨询服务方案。