首 页
研究报告

医疗健康信息技术装备制造汽车及零部件文体教育现代服务业金融保险旅游酒店绿色环保能源电力化工新材料房地产建筑建材交通运输社消零售轻工业家电数码产品现代农业投资环境

产业规划

产业规划专题产业规划案例

可研报告

可研报告专题可研报告案例

商业计划书

商业计划书专题商业计划书案例

园区规划

园区规划专题园区规划案例

大健康

大健康专题大健康案例

行业新闻

产业新闻产业资讯产业投资产业数据产业科技产业政策

关于我们

公司简介发展历程品质保证公司新闻

当前位置:思瀚首页 >> 行业新闻 >>  产业新闻

算力需求与双碳目标共举,液冷方案有望加速渗透
思瀚产业研究院    2025-06-30

如同人类依靠皮肤调节体温,冷却系统是数据中心调节温度和湿度的主要“官”。一个标准的数据中心由三个主要部分组成:

信息技术(IT)设备:功能项;

冷却系统:防止数据中心热失控并保持 IT 设备温度适宜;

配电单元:同时为冷却基础设施和 IT硬件供电。

在物理学中,“”和“”往往相伴而生,其本质是能源守恒定律下,电流做功(电能)转化为热能,基本上数据中心消耗的所有电量都会转变成热量,功耗越大,产生的热量越多,当一定数量的 CPU、GPU 被集成以机柜或者数据中心的规模同时散热时,还会导致密闭空间的数据中心内部环境升温。

根据 TrendForce 预测,2025 年液冷在全球数据中心的渗透率将从 2024 年的 10%增长至20%以上,虽然风冷在存量市场仍占主导地位,但在算力需求提升、节能减排的社会目标下,液冷正在成为芯片/机架级冷却的主流解决方案。一方面,英伟达最新发布的 GB300 OEM/ODM 供应商均采用全液冷方案;另一方面,

2024 年7 月由四部委发布的《数据中心绿色低碳发展专项行动计划》提出,到 2025 年底,全国数据中心平均电能利用效率(PUE)降至 1.5 以下,而根据 2025 年 6 月 1 日新闻,最新一批“国家绿色数据中心”的 PUE 平均值已降至 1.26,PUE 指标持续下降是新建及存量数据中心改造的必然趋势。

一、需求层面:智算中心催生高算力芯片,系统级功耗大幅提高

ChatGPT 引爆的生成式 AI 浪潮让智能算力需求呈爆发式上升,数据中心产业投资开始从通用算力中心迅速转向智能算力中心。通用算力是基于 CPU 提供的基础计算能力,智能算力是依靠 GPU、FPGA、ASIC 等芯片加速特定类型的运算;根据工信部印发的《算力基础设施高质量发展行动计划》定义,智能计算中心是通过使用大规模异构算力资源,包括通用算力和智能算力,主要为人工智能应用(如人工智能深度学习模型开发、模型训练和模型推理等场景)提供所需算力、数据和算法的设施。

智算中心在芯片体系、网络拓扑和软件栈上都与传统数据中心存在本质差异,其核心价值在于按需聚合、调度 GPU 级别的高并行算力,机柜功率、带宽密度和服务器整机规模均远超传统云数据中心。为了满足不断攀升的算力需求,海外以英伟达为首,国内以华为为首的服务器供应商陆续推出匹配智算中心需求的芯片架构及系统方案:

英伟达:Blackwell 架构下已经实现量产出货的三款产品 B100-B200-GB200,单芯片半精度(FP16)算力从 1.8Pflops 提升至 5Pflops,同时最大热设计功率(TDP)从 700W提升至 2700W,从最新发布的 B300/GB300 来看,GB300 算力较 GB200 提升 50%,B300TDP 较 B200 增加 200W。

华为:910B 半精度(FP16)算力达 320Tflops,最大功耗 400W,2024 年 Q4 推出 910C,半精度(FP16)算力飞涨至 780 Tflops,相同任务下功耗降低 30%。

虽然从单芯片参数上,国内与海外还存在代差,但华为提出基于 910C 的纵向扩展解决方案 CloudMatrix384 半精度算力达到英伟达 GB200-NVL72 的 1.7 倍,CM384 通过多对多拓扑连接 384 个昇腾 910C 芯片,且由于横向及纵向拓展网络大规模采用 400G 光模块而非铜缆,总系统功耗较高、接近 600kW。

随着单芯片及机柜级功率密度提升,传统的风冷方案难以充分冷却设备,TGG 建议把 15-25 kW 机柜功率作为“未使用背板换热器等其他制冷设备”的风冷解决方案的上限,一般认为机柜功率密度 20 kW 以上的人工智能集群不适宜采用风冷方案。据统计,英伟达 GB300OEM/ODM 厂商均采用全液冷架构。国内华为 910C 单芯片虽然还未达到必须采用液冷的功耗门槛,但从系统级能耗来看,CM384 方案对散热提出了更高要求。

二、 政策层面:数据中心 PUE 指标趋严,老旧存量项目面临关停

PUE(Power Usage Effectiveness)是评估数据中心效率水平的重要指标,PUE=数据中心消耗的所有能源/IT 负载消耗的能源,其中 IT 负载消耗是指用于计算、存储和网络设备的电力和能源,PUE 越接近 1,数据中心的能效水平越好。

作为 “新基建” 的数字底座与核心代表,数据中心在国家“双碳”目标战略框架下被赋予更高维度的绿色发展使命。国家层面对于大型数据中心 PUE 指标要求逐年提高,根据2024 年 7 月国家发改委、工信部、能源局、数据局联合发布的《数据中心绿色低碳发展专项行动计划》,要求到 2025 年底,新建及改扩建大型和超大型数据中心 PUE 降至 1.25 以内,国家枢纽节点数据中心项目 PUE 不得高于 1.2。

除了国家层面对数据中心能耗指标提出硬性要求外,各省市对不符合要求的存量低效数据中心提出了严格的改造或关停要求。例如北京市《北京市存量数据中心优化工作方案(2024-2027 年)》中提出引导全年电力能源消耗量在 5GWh 及以上、PUE>1.35 的存量数据中心完成绿色低碳改造、转型为智能算力中心,2026 年起对 PUE 值高于 1.35 的数据中心征收差别电价;

上海市《上海市推动大规模设备更新和消费品以旧换新行动计划(2024-2027 年)》中提出加快既有数据中心升级改造,将规模小、效益差、能耗高的小散老旧数据中心纳入产业限制和淘汰目录,加大高效制冷技术和新能源推广应用力度。

在运行成本结构中,制冷系统一直是仅次于 IT 负载的第二能耗大户,当前数据中心制冷能耗占约 20%-30%,传统风冷方案下能耗可达 50%-70%,因此降低制冷系统的能耗可以显著提高数据中心的电能利用效率,相比空气,液体凭借更高的热传导效率,能够在更低的能源消耗下实现更好的散热效果,从而进一步降低 PUE。

更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑设计、境外投资报告等相关咨询服务方案。

免责声明:
1.本站部分文章为转载,其目的在于传播更多信息,我们不对其准确性、完整性、及时性、有效性和适用性等任何的陈述和保证。本文仅代表作者本人观点,并不代表本网赞同其观点和对其真实性负责。
2.思瀚研究院一贯高度重视知识产权保护并遵守中国各项知识产权法律。如涉及文章内容、版权等问题,我们将及时沟通与处理。