AI 存储需求激发 HDD 替代效应,NAND Flash 结构性需求旺盛
根据 TrendForce,AI 推理应用快速推升实时存取、高速处理海量数据的需求,传统作为海量数据存储基石的 Nearline HDD(近线硬盘)已出现供应短缺。由于全球主要 HDD 制造商近年未规划扩大产线,无法及时满足 AI 刺激的突发性、巨量储存需求。目前 NL HDD 交期已从原本的数周,急剧延长为 52 周以上,加速扩大 CSP 的存储缺口。
在此背景下,高效能、高成本的 SSD 逐渐成为市场焦点,特别是大容量的 QLC SSD 出货或有望于 2026 年显著增长。根据 TrendForce,HDD 产业正值技术换代的阵痛期,投资新一代热辅助磁记录技术产线初期的高昂成本,不仅造成产能扩张瓶颈,也迫使供应商将费用转嫁给客户,导致每 GB 的平均售价从过往的0.012-0.013 美元,提高至 0.015-0.016 美元,削弱了 HDD 最核心的成本优势。
相比之下,NAND Flash通过 3D 堆栈技术的演进,产能提升速度远快于 HDD。此外,随着堆栈层数从上百层迈向 200 层以上或更高,晶圆的储存位元密度不断提升。预期 2026 年 2Tb QLC 芯片的产出将逐步放量,成为降低 Nearline SSD 成本的主力。
AI 推理工作负载涉及大量小型数据的随机读取,以及对模型参数的快速调用。从效能角度分析,SSD的 IOPS(每秒读写次数)是 HDD 的数百甚至数千倍,其微秒级的延迟更是 HDD 毫秒级延迟无法比拟的。而 SSD 在运作时无需马达驱动磁盘,每 TB 的功耗远低于 HDD。对于大型数据中心而言,改用 SSD 所节省的电费、冷却成本以及机柜空间,长期足以抵销其较高的初始购置成本。
北美 CSP 早已规划于温数据应用扩大采用 SSD,但因为 HDD 缺口严峻,CSP 甚至开始考虑于冷数据采用 SSD。我们认为,在 AI 需求带动下,NAND Flash 存在结构性需求旺盛,相关供应链有望深度受益。
高端 DRAM 仍为 AI 标配,终端加速转向 LPDDR5X
从国际领先供应商对于 AI基础设施配置来看,高性能 DRAM仍是持续发力方向。英伟达预计于 2027年下半年推出 Rubin Ultra NVL576,单机柜预计搭载 365TB 的 HBM4e,是 GB300 NVL72 的 8 倍。无独有偶,在 HotChips 2025 上,谷歌介绍了第七代 TPU“Ironwood”的情况,其配备了 192GB 的HBM,带宽高达 7.4TB/s,亦显著高于前代标准。
除 HBM 外,随着 CSP 扩大资本支出,并计划采购更多的英伟达 GB300 和 VR200 机架解决方案。英伟达 GB/VR 机架需求的增长或将进一步推动 Grace 和 Vera CPU 需求。伴随英伟达 AI 服务器出货量的增长,其对于 LPDDR5X 的需求亦将持续增长。
根据 TrendForce,2025 年市场对于 LPDDR5X 的需求同比增长 558%,2026 年还将继续增长 169%,2025-2030 年的年复合增长率将会高达 51%。而对于 LPDDR5X 的整体需求当中,来自英伟达 AI/服务器的需求占据了极高的比重。此外,目前智能智能手机内存解决方案基本都是 LPDDR4、LPDDR5。
但是由于上游原厂逐步停止LPDDR4 的供应,产线转产新制程,使得 LPDDR4 缺货涨价,并且是不可逆的,所以手机厂商亦需要加速转向最先进的 LPDDR5/LPDDR5X。根据 TrendForce 的预计,从智能手机生产的角度来看,LPDDR5(X) Gb 当量预计将在 2025 年占比52%,在 2026 年将提升至 66%。2025 年配备 LPDDR5(X)的智能手机将占智能手机总产量的 37%,到 2026 年将占 51%。
KV Cache 催生 NAND 新需求,以存带算趋势渐进
根据华尔街见闻,在黄仁勋在 CES 演讲中,敏锐地捕捉到了 AI 模型侧的根本性变化——Test-timeScaling(测试时扩展)。“推理不再是一次性的回答,而是一个思考的过程。”他指出,随着 DeepSeekR1 和 OpenAI o1 等模型的出现,AI 开始展现出思维链能力。这意味着 AI 在给出答案前,需要消耗大量的算力进行多步推理、反思和规划。
同时,当 AI 从简单的问答转向长时间的复杂推理时,记忆瓶颈涌现。在 Agentic AI 时代,智能体需要记住漫长的对话历史和复杂的上下文,这会产生巨大的 KV Cache。传统的解决方案是将这些数据塞进昂贵的 HBM 显存中,但 HBM 容量有限且价格高昂,这被称为“显存墙”。AI 的工作记忆存储在 HBM 内存中。每生成一个 token,它都要读取整个模型和所有工作记忆。对于需要长期运行、拥有持续记忆的 AI 智能体,这种架构显然不可持续。
英伟达的解决方案是一套全新的存储架构:基于 BlueField-4 DPU 构建的推理上下文内存存储平台(Inference Context Memory Storage Platform)。在每个 GPU 原有 1TB 内存的基础上,英伟达通过这个平台为每个GPU额外增加了16TB的“思考空间”。这个平台被放置在离计算单元最近的位置,通过高达 200Gb/s 的带宽连接,避免了传统存储带来的延迟瓶颈。
服务器市场持续快速增长,涨价或抑制部分消费需求
从终端需求来看,服务器市场对于存储需求将保持快速增长。根据 Trendforce 预计,通用服务器方面,对于 DRAM 需求,2025 年同比增长 19%,2026 年将继续同比增长 20%;对于 NAND Flash 的需求,2025 年同比增长 30%,2026 年同比增长 19%。
AI 服务器方面,2025 年 LPDDR 需求同比增长 67%,RDIMM 同比增长 31%;2026 年 LPDDR 需求同比增长 15%,RDIMM 同比增长 21%。对于 NAND Flash 需求方面,2025 年同比增长 60%,2026 年将继续增长 70%。
而由于存储芯片价格持续上涨,将迫使 PC 厂商和智能手机提升产品价格,或将抑制客户需求。2025年来自笔记本电脑的需求分别增长 14%和 3%,2026 年将继续分别增长 10%和 6%;2025 年来自智能手机的需求分别增长 9%和 11%,2026 年将继续增长 8%和 8%。