北美四大云厂商受益于 AI 对核心业务的推动,持续加大资本开支。受益于 AI 对于公司核心业务的推动,北美四大云厂商谷歌、微软、Meta、亚马逊 2023 年开始持续加大资本开支,2025 年一季度四大云厂商的资本开支合计为 711 亿美元,同比增长 64%。目前北美四大云厂商的资本开支增长主要用于 AI 基础设施的投资,并从 AI 投资中获得了积极回报,预计 2025年仍有望继续大幅增加资本开支。
国内三大互联网厂商不断提升资本开支,国内智算中心加速建设。国内三大互联网厂商阿里巴巴、百度、腾讯 2023 年也开始不断加大资本开支,2025 年一季度三大互联网厂商的资本开支合计为 550 亿元,同比增长 100%,预计 2025 年国内三大互联网厂商将继续加大用于 AI基础设施建设的资本开支。根据中国电信研究院发布的《智算产业发展研究报告(2024)》的数据,截至 2024 年 6 月,中国已建和正在建设的智算中心超 250 个;目前各级政府、运营商、互联网企业等积极建设智算中心,以满足国内日益增长的算力需求。
人工智能进入算力新时代,全球算力规模高速增长。随着人工智能的快速发展以及 AI 大模型带来的算力需求爆发,算力已经成为推动数字经济飞速发展的新引擎,人工智能进入算力新时代,全球算力规模呈现高速增长态势。根据 IDC、Gartner、TOP500、中国信通院的预测,预计全球算力规模将从 2023 年的 1397 EFLOPS 增长至 2030 年的 16 ZFLOPS,预计2023-2030 年全球算力规模复合增速达 50%。根据 IDC 的数据,2024 年中国智能算力规模为725.3 EFLOPS,预计 2028 年将达到 2781.9 EFLOPS,预计 2023-2028 年中国智能算力规模的复合增速为 46.2%。
AI 服务器是支撑生成式 AI 应用的核心基础设施。人工智能产业链一般为三层结构,包括基础层、技术层和应用层,其中基础层是人工智能产业的基础,为人工智能提供数据及算力支撑。服务器一般可分为通用服务器、云计算服务器、边缘服务器、AI 服务器等类型,AI 服务器专为人工智能训练和推理应用而设计。大模型兴起和生成式 AI 应用显著提升了对高性能计算资源的需求,AI 服务器是支撑这些复杂人工智能应用的核心基础设施,AI 服务器的其核心器件包括 CPU、GPU、FPGA、NPU、存储器等芯片,以及 PCB、高速连接器等。
大模型有望推动 AI 服务器出货量高速成长。大模型带来算力的巨量需求,有望进一步推动 AI 服务器市场的增长。根据 IDC 的数据,2024 年全球 AI 服务器市场规模预计为 1251 亿美元,2025 年将增至 1587 亿美元,2028 年有望达到 2227 亿美元,预计 2024-2028 年复合增速达 15.5%,其中生成式 AI 服务器占比将从 2025 年的 29.6%提升至 2028 年的 37.7%。IDC预计2024年中国AI服务器市场规模为190亿美元,2025年将达259亿美元,同比增长36.2%,2028 年将达到 552 亿美元,预计 2024-2028 年复合增速达 30.6%。
AI 算力芯片是算力的基石。CPU+GPU 是目前 AI 服务器主流的异构计算系统方案,根据IDC 2018 年服务器成本构成的数据,推理型和机器学习型服务器中 CPU+GPU 成本占比达到50-82.6%,其中机器学习型服务器 GPU 成本占比达到 72.8%。AI 算力芯片具备强大的并行计算能力,能够快速处理大规模数据和复杂的神经网络模型,并实现人工智能训练与推理任务;AI 算力芯片占 AI 服务器成本主要部分,为 AI 服务器提供算力的底层支撑,是算力的基石。AI算力芯片作为“AI 时代的引擎”,有望畅享 AI 算力需求爆发浪潮,并推动 AI 技术的快速发展
根据芯片的设计方法及应用, AI 算力芯片可分为通用型 AI 芯片和专用型 AI 芯片。通用型 AI 芯片为实现通用任务设计的芯片,主要包括 CPU、GPU、FPGA 等;专用型 AI 芯片是专门针对人工智能领域设计的芯片,主要包括 TPU(Tensor Processing Unit)、NPU(NeuralNetwork Processing Unit)、ASIC 等。
在通用型 AI 芯片中,由于在计算架构和性能特点上的不同,CPU 适合处理逻辑复杂、顺序性强的串行任务;GPU 是为图形渲染和并行计算设计的处理器,具有大量的计算核心,适合处理大规模并行任务;FPGA 通过集成大量的可重构逻辑单元阵列,可支持硬件架构的重构,从而灵活支持不同的人工智能模型。
专用型 AI 芯片是针对面向特定的、具体的、相对单一的人工智能应用专门设计的芯片,其架构和指令集针对人工智能领域中的各类算法和应用作了专门优化,具体实现方法为在架构层面对特定智能算法作硬化支持,可高效支持视觉、语音、自然语言处理和传统机器学习等智能处理任务。
当前 AI 算力芯片以 GPU 为主流,英伟达主导全球 AI 算力芯片市场。根据的 IDC 数据,2024 上半年,中国 AI 加速芯片的市场规模达超过 90 万张;从技术角度来看,GPU 卡占据 80%的市场份额。根据 Precedence Research 数据,2022 年英伟达占据全球 AI 芯片市场份额超过80%,其中英伟达占全球 AI 服务器加速芯片市场份额超过 95%。
GPU(Graphics Processing Unit)即图形处理单元,是计算机的图形处理及并行计算的核心。GPU 最初主要应用于加速图形渲染,如 3D 渲染、图像处理和视频解码等,是计算机显卡的核心;随着技术的发展,GPU 也被广泛应用于通用计算领域,如人工智能、深度学习、科学计算、大数据处理等领域,用于通用计算的 GPU 被称为 GPGPU(General-Purposecomputing on Graphics Processing Units),即通用 GPU。
GPU 与 CPU 在内部架构上有显著差异,决定了它们各自的优势领域。GPU 通过大量简单核心和高带宽内存架构,优化并行计算能力,适合处理大规模数据和高吞吐量任务;CPU 通过少量高性能核心和复杂控制单元优化单线程性能,适合复杂任务和低延迟需求。
GPU 是 AI 服务器算力的基石,有望畅享 AI 算力需求爆发浪潮。GPU 是 AI 服务器算力的基石,随着 AI 算力规模的快速增长将催生更大的 GPU 芯片需求。根据 Statista 的数据,2023年全球 GPU 市场规模为 436 亿美元,预计 2029 年市场规模将达到 2742 亿美元,预计2024-2029 年复合增速达 33.2%。
英伟达主导全球 GPU 市场。根据 TechInsights 的数据,2023 年全球数据中心 GPU 总出货量达到了 385 万颗,相比 2022 年的 267 万颗同比增长 44.2%,其中英伟达数据中心 2023 年GPU 出货量呈现爆发式增长,总计约 376 万台,英伟达在数据中心 GPU 出货量中占据 98%的市场份额,英伟达还占据全球数据中心 GPU 市场 98% 的收入份额,达到 362 亿美元,是 2022 年 109 亿美元的三倍多。根据 Jon Peddie Research 的数据, 2024 年第四季度全球 PC GPU 出货量达到 7800 万颗,同比增长 0.8%,环比增长 6.2%,其中英特尔、AMD、英伟达的市场份额分别为 65%、18%、16%。
GPU 生态体系主要由三部分构成,包括底层硬件,中间层 API 接口、算法库、开发工具等,上层应用。以英伟达数据中心平台 GPU 生态体系为例,底层硬件的核心是英伟达的 GPU产品、用于 GPU 之间高速连接的 NVSwitch 、节点之间互联的各种高速网卡、交换机等,以及基于 GPU 构建的服务器;中间层是软件层面的建设,包括计算相关的 CUDA-X、网络存储及安全相关的 DOCA 和 MAGNUM IO 加速库,以及编译器、调试和优化工具等开发者工具包和基于各种行业的应用框架;上层是开发者基于英伟达提供的软硬件平台能力,所构建的行业应用。
GPU 生态体系建立极高的行业壁垒。GPU 一方面有对硬件性能的要求,还需要软件体系进行配套,而 GPU 软件生态系统复杂,建设周期长、难度大。英伟达 CUDA 生态从 2006 年开始建设,经过多年的积累,建立强大的先发优势,英伟达通过与客户进行平台适配、软件开源合作,不断加强客户粘性,GPU 行业新进入者转移客户的难度极大,GPU 生态体系建立极高的行业壁垒。
AI ASIC 是一种专为人工智能应用设计的定制集成电路,具有高性能、低功耗、定制化、低成本等特点。与通用处理器相比,AI ASIC 针对特定的 AI 任务和算法进行了优化,如深度学习中的矩阵乘法、卷积等运算,能在短时间内完成大量计算任务,提供高吞吐量和低延迟,满足 AI 应用对实时性的要求;AI ASIC 通过优化电路设计和采用先进的工艺技术,在处理 AI 工作负载时具有较高的能效比,适合大规模数据中心等对能耗敏感的场景;虽然前期研发和设计成本较高,在大规模部署时,ASIC 的单位计算成本通常低于通用处理器。
AI ASIC 与 GPU 在 AI 计算任务中各有优势和劣势。在算力上,先进 GPU 比 ASIC 有明显的优势;ASIC 针对特定任务优化,通常能提供更高的计算效率,ASIC 在矩阵乘法、卷积运算等特定 AI 任务上性能可能优于 GPU;GPU 通用性强,能够运行各种不同类型的算法和模型,ASIC 功能固定,难以修改和扩展,灵活性较差;ASIC 针对特定任务优化,功耗显著低于 GPU;GPU 研发和制造成本较高,硬件成本是大规模部署的重要制约因素,ASIC 在大规模量产时单位成本相对较低。
云厂商等大厂自研芯片趋势明显,推动数据中心定制 ASIC 芯片市场高速增长。由于全球头部云厂商、互联网厂商等对 AI 算力芯片需求量巨大,英伟达垄断全球数据中心 GPU 市场,因成本、差异化竞争、创新性、供应链多元化等原因,越来越多地大厂开始设计自有品牌的芯片,大厂自研芯片趋势明显;云厂商等大力投入自研 AI ASIC,推动数据中心定制 ASIC 芯片市场高速增长,预计增速快于通用 AI 算力芯片。根据 Marvell 的数据,2023 年数据中心定制ASIC 芯片市场规模约为 66 亿美元,预计 2028 年数据中心定制 ASIC 芯片市场规模将达到 554亿美元,2023-2028 年复合增速将达到 53%。
云厂商自研 AI ASIC 芯片时,通常会与芯片设计厂商合作,然后再由台积电等晶圆代工厂进行芯片制造,目前全球定制 AI ASIC 市场竞争格局以博通、Marvell 等厂商为主。博通为全球定制 AI ASIC 市场领导厂商,已经为大客户实现 AI ASIC 大规模量产。
博通在多年的发展中已经积累了大量的成体系的高性能计算/互连 IP 核及相关技术,除了传统的CPU/DSP IP 核外,博通还具有交换、互连接口、存储接口等关键 IP 核;这些成体系的 IP 核可以帮助博通降低 ASIC产品成本和研发周期,以及降低不同 IP 核联合使用的设计风险,并建立博通强大的竞争优势。博通 2024 财年 AI 收入达到 120 亿美元,公司 CEO 表示,到 2027 年,公司在 AI 芯片和网络组件的市场规模将达到 600 亿到 900 亿美元。
DeepSeek 有望推动推理需求加速释放,国产 AI 算力芯片或持续提升市场份额。随着大模型的成熟及AI应用的不断拓展,推理场景需求日益增加,推理服务器的占比将显著提高;IDC预计 2028 年中国 AI 服务器用于推理工作负载占比将达到 73%。根据的 IDC 数据,2024 上半年,中国加速芯片的市场规模达超过 90 万张,国产 AI 芯片出货量已接近 20 万张,约占整个市场份额的 20%;用于推理的 AI 芯片占据 61%的市场份额。
DeepSeek-R1 通过技术创新实现模型推理极高性价比,蒸馏技术使小模型也具有强大的推理能力及低成本,将助力 AI 应用大规模落地,有望推动推理需求加速释放。由于推理服务器占比远高于训练服务器,在 AI 算力芯片进口受限的背景下,用于推理的 AI 算力芯片国产替代空间更为广阔,国产 AI 算力芯片厂商已完成适配 DeepSeek,DeepSeek 通过技术创新提升 AI 算力芯片的效率,进而加快国产 AI 算力芯片自主可控的进程,国产 AI 算力芯片有望持续提升市场份额。
AI 服务器持续迭代升级,有望推动 PCB 量价齐升。在传统服务器中,PCB 主要应用于服务器中主板、CPU 板、内存、电源背板、硬盘背板、网卡、Riser 卡等核心部分;AI 服务器中PCB 增加 GPU 板卡、交换板卡等,AI 服务器将为 PCB 带来新的增量。人工智能训练和推理需求持续扩大,AI 服务器随着 GPU 持续迭代升级,对于 PCB 传输速率、层数、制造工艺等要求不断提升,将推动对大尺寸、高速多层数 PCB 的旺盛需求, 其高负载工作环境也对 PCB 的规格、品质提出了更高的要求,AI 服务器有望推动 PCB 量价提升。
PCB 行业或将新一轮成长周期。根据 Prismark 的数据,预计 2024 年全球 PCB 市场规模将接近 740 亿美元,同比增长约 5.8%,预计 2025 年将接近 790 亿美元,同比增长约 6.8%,预计 2029 年全球 PCB 市场规模将接近 950 亿美元,2024-2029 年复合增速约为 5.2%。人工智能、高速网络和汽车系统等领域的强劲需求或将推动高端 HDI、高速高层板和封装基板细分市场的增长,并为 PCB 行业带来新一轮成长周期,未来全球 PCB 行业仍将呈现增长趋势。
部分 PCB 厂商 25Q1 业绩继续高速成长。受益于人工智能领域的旺盛需求,2025 年一季度高端 HDI、高速高层板和封装基板等细分市场实现高速增长。部分 PCB 厂商 25Q1 业绩继续高速成长,其中沪电股份、胜宏科技、生益电子 25Q1 的营收同比增速分别为 56.25%、80.31%、78.55%,归母净利润同比增速分别为 48.11%、339.22%、656.87%。
多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑设计、境外投资报告等相关咨询服务方案。