1、AI具有更高的天花板
AI 算力呈“乘法式”扩张,行业天花板与技术迭代速度显著更高;4G/5G 呈“加法式”增长、受物理边界约束。
5G 的需求与可部署资源和连接总量高度相关,受频谱、站址、覆盖半径、功耗等硬约束影响,收入结构本质上由基建 CAPEX与运营服务收入 相加决定,边界受人口与设备密度限制。
AI 的核心产出是“智能”,作为生产要素与数据、劳动力、资本相乘提升全要素生产率,算力需求由模型规模、上下文长度、多模态维度与推理负载共同驱动,能力提升与单位算力成本下行形成“算力-模型-应用-数据”正反馈飞轮,带来指数级模型复杂度与场景渗透。
横向对比流量消耗量与token消耗量,从13年开始的4G时代到当前的5G时代,流量消耗量CAGR(2013-2024年)约61.1%,而token消耗量则呈指数级增长,以openrouter平台为例,过去一年即增长约28倍。
AI 在各行业重构流程并催生新价值链与新市场,行业天花板由可被智能化的任务空间决定而非人口与设备数,概念上更接近无界;5G 的连接上限虽高,但受频谱资源和物理部署所框定。
基础设施端,受“可计算的连接上限”约束,4G/5G呈现明显的周期特性。
从国内三大运营商资本开支轨迹可见,4G 推进期(约 2013–2016)CAPEX 阶梯上行并在 2016 年前后见顶,随后 2017–2019年进入消化回落;5G 首轮规模建网(2020–2022)CAPEX 再度抬升,伴随覆盖范围扩大、边际收益下行与折旧约束,2023–2024 转为高位趋稳。建设周期取决于频谱/标准迭代速度与站址、光纤、供电等物理资源上限,以及人口与终端渗透的可测边界,使连接类基础设施的 TAM 收敛。
我们认为AI 算力的行业天花板远高于 4G/5G 并仍在上修,体现为数据中心 Capex 与上游加速芯片 TAM 的绝对规模与增速同时抬升。
北美四大云厂资本开支持续高增,主权AI等贡献新增量,英伟达指引Blackwell和Rubin平台有望共同推动全球AI基础设施规模在2030年左右达到3-4万亿美元。
Grand View Research预测预计全球直接AI市场规模到 2030 年将达到18117.5 亿美元,2025 年至 2030 年的复合年增长率为 35.9%。
2、AI投资正滚动式兑现
4G/5G 的投资回收期显著偏长,源于前期重资本、后端慢变现的商业模式。根据PatentPC,5G投资平均收支平衡时间预计为8-10年。
“先覆盖、后变现”的工程属性决定 CAPEX 前置。
频谱拍卖与许可费用进一步抬升资本门槛,如德国2019年5G频谱竞拍总额65.5亿欧元,挤压早期现金回笼空间。
收益侧提升有限:ARPU提价空间受竞争与监管制约,GSMA预计至 2030 年高收入市场 ARPU年增仅约1%,行业收入增速温和,ROI 摊薄。
二次建设叠加:当一期覆盖接近“边际”,Capex/Revenue 比率见顶后趋稳,但5G-A 与行业专网等二次建设仍需持续投入,使回收呈“建设—消化—再建设”的多周期拉长。
以云服务商为例,AI 算力的回收期显著短于4G/5G,核心在于边部署边变现(按量计费)+ 高利用率。
变现即时性:算力以按秒/按小时计费的 On-Demand 形态,上线即产生现金流,避免“大网络先覆盖、后变现”的滞后。
单机收入高:主流 8×H100 机型对应每卡时价常见 $2–$4+ 区间(AWSp5.48xlarge 折算 $3.933/GPU·h;专业 GPU 云最低 $2.99/GPU·h ),在高利用率场景下可快速摊薄前期投入。以一张H100价格为3万美元计算,大约需400天即可覆盖单卡成本。
高利用率:AI加速卡长期处于供不应求的状态,云服务厂商RPO激增,算力资源被提前锁定。
AI产品的用户渗透速度远超互联网,已拥有庞大的用户基础,潜在变现能力强,投资回收期相比4G/5G有望显著缩短。ChatGPT上线约3年用户已接近8亿,而互联网达到相近体量约用时12–13年,同等用户规模在更短时间达成,使单位获客成本更快被摊薄。
①用户金字塔完善:免费用户→高级订阅→企业版与API,用量计费与席位订阅并行,带来更高ARPU与更长生命周期价值;
②强网络效应与内容自传播降低获取成本,结合云化交付的近零边际成本,使规模扩张直接转化为毛利改善;
③产品梯度与功能包(更强模型、更高上下文、更快速率等)提供持续的付费升级与交叉销售空间。
更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑设计、境外投资报告等相关咨询服务方案。