首 页
研究报告

医疗健康信息技术装备制造汽车及零部件文体教育现代服务业金融保险旅游酒店绿色环保能源电力化工新材料房地产建筑建材交通运输社消零售轻工业家电数码产品现代农业投资环境

产业规划

产业规划专题产业规划案例

可研报告

可研报告专题可研报告案例

商业计划书

商业计划书专题商业计划书案例

园区规划

园区规划专题园区规划案例

大健康

大健康专题大健康案例

行业新闻

产业新闻产业资讯产业投资产业数据产业科技产业政策

关于我们

公司简介发展历程品质保证公司新闻

当前位置:思瀚首页 >> 行业新闻 >>  产业投资

2026年人工智能算力基础设施行业发展概况及发展趋势
思瀚产业研究院 燧原科技    2026-02-02

人工智能算力基础设施行业是人工智能产业中的重要组成部分,主要为下游人工智能的训练及推理提供算力,以支持人工智能技术的持续创新以及人工智能应用对各行各业的赋能。人工智能算力基础设施产业链市场景气度与下游半导体和终端应用市场高度相关。

随着人工智能技术的发展与突破,尤其是大模型技术的不断发展,智能算力需求呈现快速发展的态势。一方面,大模型不断往大参数、多模态的方向发展,以实现更智能、功能更完善的人工智能,因而在训练端存在大规模的智能算力需求;另一方面,随着大模型的不断迭代升级,人工智能对于包括智慧城市、智慧金融、智慧创作设计等多个行业和场景的赋能作用愈发显现,也使得在推理端存在大规模的智能算力需求。

人工智能算力基础设施行业通过一系列的创新技术及产品迭代,为人工智能产业提供算力支撑,在产业链中具有基础性的重要地位和作用。

1、人工智能算力基础设施行业发展概况

(1)AI 算力需求增长促使全球云厂商加大 AI 资本开支,进一步带动人工智能算力基础设施的规模增长

从 GPT 到 DeepSeek,人工智能技术作为一项革命性技术,近年来在自然语言处理、深度学习、神经网络等领域不断取得重大突破。目前阶段的人工智能产业发展相比过去全面提速,模型的泛化能力越来越强,使得大模型凭借强迁移性可以在产业中得到广泛应用。这种通用性反过来也使得大模型具备规模效应和经济性。

通用大模型以及芯片、算力基础设施等底层环节能力的不断改善,带来人工智能在应用场景类别、场景深度的持续提升,并最终带来产业基础能力、应用场景之间的不断相互促进,并在正向循环逻辑下,驱动全球 AI 产业发展不断提速。

在旺盛的市场需求、丰富应用场景的驱动下,全球智能算力(指基于 AI加速芯片的加速计算平台提供人工智能训练和推理的计算能力)规模呈现增长态势。根据 IDC 最新预测结果显示,2025 年中国智能算力规模将达到1,037.3EFLOPS(基于 FP16),并在 2028 年达到 2,781.9EFLOPS(基于 FP16),2024-2028 年中国智能算力规模的年均复合增长率为 39.94%。

全球人工智能市场持续呈现增长态势,成为各行业智能化升级的重要驱动力。在技术创新、应用场景拓展的多重驱动下,全球企业对于人工智能技术的投资普遍提升,IDC 预测,2025 年全球 2000 强企业会将超过 40%的 IT 预算投入到人工智能项目中,旨在推动产品和流程创新,并促成两位数的营收增长。

根据花旗研究及思瀚的数据,全球人工智能资本支出规模将由 2024 年 0.2 万亿美元增长至 2028年的 1.4 万亿美元,年均复合增长率超 50%。根据相关数据统计,AI 服务器价值量约占人工智能资本支出的比例约为 40%-50%,AI 加速卡约占 AI 服务器的70%,综合考虑,AI 加速卡约占人工智能支出的 30%左右,人工智能资本支出的提升将拉动 AI 加速卡市场规模的提升。

(2)AI 加速卡 2024 年全球市场已超过 1,000 亿美元,预计 2028 年将超过 5,000 亿美元,届时中国市场需求将超过万亿人民币,占全球市场约 30%

云端 AI 芯片往往以 AI 加速卡的形式进行销售,或进一步集成至智算系统及集群售往各类客户。以互联网巨头及 AI 大模型企业为代表的各类企业逐步增大的人工智能资本开支进一步带动了全球 AI 加速卡的规模。根据灼识咨询数据,2024 年全球 AI 加速卡以收入计的市场规模约为 1,190.28 亿美元。在人工智能技术持续演进与数字化基础设施加速完善的推动下,人工智能的商业化应用有望加快落地,并进一步带动人工智能芯片市场的快速增长,预计 2028 年全球 AI加速卡市场规模将达到 5,257.70 亿美元。

作为全球最大的人工智能市场之一,中国对 AI 加速卡的需求也在快速增长。中国 AI 加速卡从 2020 年的 122.54 亿元增长到 2024 年的 2,164.77 亿元,复合年增长率为 105.01%。预计到 2028 年,该市场将达到 11,076.46 亿元,从 2024年到 2028 年的复合年增长率为 50.40%。2028 年中国 AI 加速卡市场需求将占届时全球市场需求的约 30%。

这一增长趋势主要源于人工智能应用需求的快速提升,尤其是 AI 大模型训练和推理对算力的强烈需求,使 AI 加速卡成为数据中心计算加速的关键硬件。同时,国家不断出台政策支持以及“东数西算”等战略的推进,加快了数据中心的建设,也进一步推动需求增长。

(3)人工智能的商业化应用带动 token 调用的上涨,拉动算力需求,乐观预计下 2030 年全球 AI 加速卡市场空间预计达万亿美金

AI 应用在各个领域开始快速渗透,进一步带动 token 调用的上涨。2024 年以来,头部大模型公司日均 token 消耗数量从千亿级已增长至十万亿级。根据火山引擎 2025 Force 原动力大会、谷歌 2025 I/O 开发者大会,2025 年 9 月,字节日均 token 消耗量超过 30 万亿,一年多时间增长 250 倍;谷歌日均 token 消耗量已达 43 万亿,一年半时间增长 134 倍。根据中信证券研究部预计,2030 年全球月 token 调用量在保守和乐观情况的假设下预计将达到 559-1,878 千万亿的水平,约为 2025 年的全球 token 调用量 5.5 千万亿的 100-349 倍。5 年百倍以上的推理需求增长预计,进一步打开算力建设的想象空间。

根据推理计算量约为 2*token*激活参数量*1.12 的近似公式,同时考虑整体算力利用率、推理算力占比等因素,初步预计 2030 年全球新增算力需求将达到 24-90 万 EFLOPS,相当于 2025 年新增算力需求的 10-39 倍,假设单位算力价格由 2025 年的 8.3 美元/EFLOPS,年均下降 15%-25%至 2030年的 2.0-3.7 美元/TFLOPS,2030 年全球 AI 加速卡市场空间为 0.9-1.8 万亿美元,约为 2025 年的 5-9 倍。

2、人工智能算力基础设施行业发展趋势

(1)云端 AI 芯片是全球 AI 芯片的主流,预计 2024 年至 2028 年云端 AI芯片的市场规模占比始终超过 80%

AI 加速卡根据部署位置可分为云端和边缘端,云端 AI 加速卡主要应用于数据中心和云端服务器等,随着全球互联网厂商对于数据中心的投入持续扩大,云端 AI 加速卡市场规模快速增长。根据灼识咨询预测,全球 AI 加速卡的云端应用市场规模将从 2024 年的 1,078.66 亿美元增长到 2028 年的 4,523.96 亿美元,复合增长率为 43.11%,占全球 AI 加速卡市场规模超 80%。

(2)大模型行业逐渐从大规模训练阶段走向推理落地阶段,预计 2026 年全球 AI 推理对 AI 加速卡需求将超过 AI 训练场景,中国市场这一趋势更加明显

随着 DeepSeek 系列大模型的发布,大幅提升开源模型的性能并降低 AI 软件、AI 硬件的使用成本,加速人工智能应用的落地,进而推动推理端算力需求。根据灼识咨询预测,到 2028 年,AI 加速卡的推理用需求将呈现爆发式增长,市场规模将从 2024 年的 476.11 亿美元增长到 2028 年的 3,256.18 亿美元,复合增长率为 61.71%。这一增速远超整体 AI 加速卡市场的平均水平,反映出推理在实际应用部署中的巨大需求。

对于中国而言,依托 DeepSeek 模型性价比的持续提升,国内 AI 应用凭借丰富的产业生态与成熟的流量优势,实现了在各领域的规模化发展。其中,互联网厂商凭借庞大的存量客户群体,推出的各类 AI 应用一经上线即对推理算力形成大规模需求;而随着用户粘性的逐步增强,推理算力的需求规模预计将进一步扩大。

此外,DeepSeek、千问等主流 AI 模型的开源化发展,大幅降低了非头部 AI 厂商在模型预训练环节的投入需求,进一步推动推理算力需求在整体算力需求中的占比持续提升。从细分结构来看,中国训练用AI加速卡市场规模在2020年至 2024 年间以 97.95%的复合增速增长,预计在 2028 年将达到 2,990.64 亿元。而推理用 AI 加速卡则展现出更快的增长趋势,2020 年至 2024 年的年均增速为 111.06%,未来四年有望以 59.41%的高增速扩张至 8,085.82 亿元,占比逐步提升至超 70%。

(3)推理场景对于 CUDA 生态的依赖在持续减弱,AI 加速卡性价比成为关键,非 GPGPU 架构 AI 加速卡需求占比逐步提高

ChatGPT 的诞生标志着大语言模型从技术探索走向大规模应用的转折点,DeepSeek 系列模型的发布打破了闭源模型的垄断并吸引全球开发者参与生态建设,加速了 AI 应用的渗透,在开源模型的基础上实现技术普惠,推动人工智能真正进入“全民时代”。AI 应用的底层大模型开发者也逐步收敛至头部几家大模型厂商,这使得 AI 加速卡厂商所需适配的大模型逐步收敛,逐步减弱了对于 CUDA 生态的依赖,而 AI 加速卡的能效比正成为技术发展的核心指标。

目前 AI 芯片的主流架构分为以英伟达为首的 GPGPU 架构和包含谷歌 TPU、华为 NPU 等架构的非 GPGPU 架构。GPGPU 架构基于 GPU 的多核并行计算能力,通过裁剪 GPU 的图形渲染特性,将相应芯片资源设计用于通用计算和张量/矩阵计算,其通用性设计适用于更广泛的应用场景。非 GPGPU 架构以算法为中心、针对特定问题域比如人工智能计算特征进行设计和优化,在应用场景下运行效率更高,性价比更优。

在推理阶段,AI 芯片需要在功耗、成本和实时性等方面进行优化,由于非GPGPU 可针对特定模型所需算子进行优化定制,相较于 GPGPU 架构加速卡在针对特定场景或模型下有更好的适配性,在成本、性价比等方面具备优势。此外,近期谷歌发布完全依靠自研的TPU芯片训练的大模型Gemini 3 系列且在多项测试中均处于行业领先地位,强化了非 GPGPU 架构 AI 加速卡能够实现万亿参数大模型全流程训练的落地能力,进一步提升市场对于非 GPGPU 芯片远期市场份额和格局的预期。基于高盛全球投资研究部的模型预测,在 AI 服务器的 AI芯片中非 GPGPU 芯片的出货占比将呈现明确上升趋势,预计将从 2024 年的36%,逐步增长至 2027 年的 45%。

(4)AI 加速卡基础设施向集群化和综合化演进

随着大模型的不断发展,相关主流 AI 大模型参数已高达数千亿,单一 AI加速卡已难以满足超大规模计算需求。行业供应重点正从单点性能提升,转向系统化集群解决方案。

现代智算集群通过三项关键策略突破应对挑战:

一是纵向扩展策略(Scale-Up),即通过增加单个节点的资源来提升性能,如改进 AI 加速卡芯片架构和采用更先进的制程进行制造,以提升 AI 芯片的峰值算力;或通过高速互联架构(如英伟达的 NVLink、公司的 GCU-LARE)实现芯片间超低延迟通信以提升单个节点内部的数据流通效率。

二是横向扩展策略(Scale-Out),即通过增加更多的算力节点来分散负载和提升处理能力,用于需要处理大规模数据集和复杂模型的应用场景。但提高集群系统的可用性和可靠性十分重要,从千卡集群到万卡、十万卡集群,节点故障几率会随集群规模增长而上升,数据中心需要更加高效的监控体系和先进的故障恢复机制,基于诸如智能显存分配、故障点恢复管理等技术,确保集群在发生节点故障时能够迅速响应,最小化停机时间。

三是跨区域扩展(Scale-Across),即通过高性能网络将地理上分散的多个数据中心连接起来,形成统一的计算资源池,突破单个数据中心的物理限制。这一策略依赖光通信技术和网络优化算法以解决长距离传输的带宽和延迟问题。

(5)未来中国 AI 加速卡需求主要集中在头部互联网厂商,2028 年头部三家互联网厂商 AI 资本支出国内占比接近 50%

伴随大模型演进、AIGC 爆发及产业智能化加速,中国企业 AI 资本支出持续攀升。但当前趋势显示,中小企业更倾向于通过云服务弹性租赁算力快速构建AI 能力,而非自建 AI 算力集群。头部互联网企业因自身大模型训练及海量推理需求,正持续加大 AI 投入,导致市场呈现头部集中态势。根据 BERNSTEIN 预测,到 2028 年,字节跳动、阿里巴巴和腾讯的 AI 资本支出将占据中国 AI 资本支出的近 50%,凸显了进入头部互联网厂商供应链对 AI 加速卡供应商的重要性。

更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑设计、境外投资报告等相关咨询服务方案。

免责声明:
1.本站部分文章为转载,其目的在于传播更多信息,我们不对其准确性、完整性、及时性、有效性和适用性等任何的陈述和保证。本文仅代表作者本人观点,并不代表本网赞同其观点和对其真实性负责。
2.思瀚研究院一贯高度重视知识产权保护并遵守中国各项知识产权法律。如涉及文章内容、版权等问题,我们将及时沟通与处理。