首 页
研究报告

医疗健康信息技术装备制造汽车及零部件文体教育现代服务业金融保险旅游酒店绿色环保能源电力化工新材料房地产建筑建材交通运输社消零售轻工业家电数码产品现代农业投资环境

产业规划

产业规划专题产业规划案例

可研报告

可研报告专题可研报告案例

商业计划书

商业计划书专题商业计划书案例

园区规划

园区规划专题园区规划案例

大健康

大健康专题大健康案例

行业新闻

产业新闻产业资讯产业投资产业数据产业科技产业政策

关于我们

公司简介发展历程品质保证公司新闻

当前位置:思瀚首页 >> 行业新闻 >>  产业资讯

液冷显著降低数据中心 PUE,政策端+需求端双重驱动
思瀚产业研究院    2024-05-30

1.数据中心耗电量巨大,节能存在较大优化空间,政策端驱动推动行业发展

近年来随着 5G、物联网、云计算、AI 等数字化技术的发展,数据计算量呈现井喷式增长,配套的数据中心与通信基站投资及建设力度也不断加大。随着数据中心规模不断增大,耗电量也随之剧增。

根据国家能源局数据,2022 年我国数据中心耗电量达 2700 亿千瓦时,能耗约占全国总用电量的 3.1%,足以满足上海、深圳两座超大型城市的全年用电需求。IDC 预计到 2024 年我国数据中心耗电量将占到全社会耗电量的 5%以上。

中国能源报预计到 2030 年全国数据中心耗电量将接近 4000 亿千瓦时,数据中心减排迫在眉睫。中国电子学会副秘书长洪京一在“算力-电力联合调度促进数据中心绿色发展研讨会”上表示,“一方面,数据中心用电量大、用电负荷高,在‘双碳’目标下减排任务重;另一方面,新型电力系统建设需要云计算、5G 等高科技支撑,算力调度在提高可再生能源电力应用比例、降低用能成本、增强电网安全等方面具有重要意义。”

全国 PUE 要求趋严,数据中心温控设备需求将不断提升。2022 年 2 月,国家发展改革委、中央网信办、工业和信息化部、国家能源局联合印发通知,同意在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等 8 地启动建设国家算力枢纽节点,并规划了 10 个国家数据中心集群。按照全国一体化数据中心建设要求,东部数据中心集群平均 PUE 值小于 1.25,西部则小于 1.2,同时数据中心平均上架率不低于 65%。

2022 年8 月 22 日,工业和信息化部、国家发改委、财政部等 7 部门联合印发《信息通信行业绿色低碳发展行动计划(2022-2025 年)》,要求到 2025 年,全国新建大型、超大型数据中心电能利用效率(PUE)降到 1.3 以下,改建核心机房 PUE 降到 1.5 以下。2023 年 11月,北京市经济和信息化局发布关于征求《数据中心能源效率限额》北京市地方标准意见的通知。

要求已建成并稳定运行一个自然年以上以及改扩建的数据中心,其 PUE 值应符合1.3 限定值的要求;新建的数据中心,其 PUE 值应符合 1.2 准入值的要求;数据中心管理者应通过节能技术改造和加强节能管理,使数据中心 PUE 值达到 1.15 先进值的要求(标准适用于数据中心中电子信息设备机房使用面积 3000 ㎡及以上或电子信息设备装机总额定功率 5000kW 及以上的数据中心能源效率的计算、控制和考核)。

数据中心耗电量的不断攀升使得节能降耗迫在眉睫,同时各省份低 PUE 政策也对数据中心制冷设备提出了更高的要求,推动了数据中心温控设备需求的提升和产品的不断进步。

2023 年 6 月 5 日,国内三大运营商联合发布《电信运营商液冷技术白皮书》。白皮书提出,当前新型应用日新月异,AI、智算纷纷提前布局,高密、高算力等多样性算力基础设施持续发展。计算型节点、AI 训练、超算等高算力业务需求持续推升芯片性能、功率与服务器功率不断提高,液冷技术利用液体较高的比热容和换热能力可以支撑更高功率散热,正在逐步成为新型制冷需求。

根据《白皮书》规划,2023 年三大运营商开展技术验证,充分验证液冷技术性能,降低 PUE,储备规划、建设与维护等技术能力。2024 年开展规模测试,推进产业生态成熟,降低全生命周期成本,新建项目 10%规模试点液冷技术。2025 年开展规模应用,共同推进形成标准统一、生态完善、成本最优、规模应用的高质量发展格局,2025 年及以后 50%以上项目规模应用液冷技术。

2.AI 行业发展带来芯片功耗与机柜密度不断增加,液冷散热势在必行

AI 行业快速发展加速液冷时代来临。从芯片端看,高算力应用场景不断涌现,AI 芯片迭代加速,芯片功耗逐代提升。Intel、ADM 等主要 CPU 芯片制造商持续提高芯片的散热设计功耗 TDP,主流系列处理器功耗已达 350-400 TDP/W。NVIDIA 的 H100 GPU 最大功耗可达 700W,B200 性能升级算力较 H100 提升 6 倍,功耗亦有较大幅度提升。预计未来在后摩尔定律时代下,芯片算力与功耗仍将大幅提升。

从机柜端看,根据科智咨询《中国液冷数据中心市场深度研究报告》,数据中心单机柜功率密度将持续上升,6-8kW 及 8kW 以上单机柜功率密度将成为目前新建数据中心的主流选择;存量数据中心为提升市场竞争力也会通过升级改造提高单机柜 IT 负载,预计到 2025年单机柜功率密度将向 20kW 演进。AI 行业快速发展有望加速这一演进进程。

根据 UptimeInstitute 发布的《2022 年全球数据中心调查报告》,以英伟达 DGX A100 服务器为例,其额定功率为 4KW,单机最大功率为 6.5KW,一个标准的 42U 高度的机柜大约可以放置 5个 5U 高度的 AI 服务器,单机柜总功率超过 20KW。

目前数据中心基础设施的制冷方式主要有风冷和液冷两种方式。传统数据中心的散热方式为风冷,即使用空气作为冷媒,对服务器的发热部件进行换热,带走热量的技术。传统风冷技术散热的上限一般为单机柜 20kw。

伴随高密应用场景增加以及 IT 部署密度提升,数据中心需要采用更加高效的散热方式,液冷通过用高比热容的液体取代空气作为热量传输的媒介,直接或间接接触发热器件,散热效率高,能够最大程度满足数据中心高效散热需求。

免责声明:
1.本站部分文章为转载,其目的在于传播更多信息,我们不对其准确性、完整性、及时性、有效性和适用性等任何的陈述和保证。本文仅代表作者本人观点,并不代表本网赞同其观点和对其真实性负责。
2.思瀚研究院一贯高度重视知识产权保护并遵守中国各项知识产权法律。如涉及文章内容、版权等问题,我们将及时沟通与处理。