根据 Yole,2023 年全球 GPU 市场规模达到 500 多亿美元,预计 2024 年达到 800 多亿美元。强劲的增长主要来自于 AI 服务器相关的需求。根据 TechInsights,2023 年全球全球数据中心 GPU 出货量达到 385 万颗,其中英伟达出货量 376 万颗,市占率超过了 97%。
根据 PrecedenceResearch,2024年数据中心 GPU 市场规模有望达到 169 亿美元,2023-2033E期间复合增速有望达到 28.5%。从 AI 大模型功能看,2023 年数据中心有 65%的需求来自于训练,有 35%的需求来自于推理。
随着大模型厂商扩张其业务范围,我们会预期来自于推理的需求增长会更快,未来来自推理的数据中心 GPU 的占比有望提升。在今年 3 月的 GTC,英伟达发布了新一代 Blackwell 平台的 GPU(GraphicsProcessing Unit,图形处理器),包括 B200 和 GB200 等产品系列。
B200 由两个超大型裸片封装组合而成,内含超过 2080 个晶体管。这颗芯片还封装了192GB 的高速 HBM3e 的显存。与前一代 H100 相比,B200 的算力提升 15 倍,Supercharged AI 训练表现提升 3 倍。
与当前市场上量产的 AI算力芯片比较,英伟达的产品仍然具备明显的性能优势。在今年三季度,英伟达已经送样 13000 块 Blackwell GPU,包括首批给 OpenAI的送样。英伟达 Blackwell 平台的新一代 GPU 在今年四季度开始出货,并且形成的收入有望高于此前数十亿美元的指引。
从未来两年来看,英伟达计划在 2025 年推出 Blackwell 平台 Ultra 芯片,并在 2026 年推出 Rubin 平台的产品。我们预期英伟达有能力在 AI 算力芯片领域保持较强的产品迭代和升级能力,保持性能和成本的优势。
AMD 的服务器 GPU 正在努力追赶英伟达。2024 年 10 月,AMD 发布了 MI325X,公司表示其性能优于英伟达 H200。MI325X 加速器采用了 AMD CDNA 3 GPU架构,配备 256GB HBM3E 高带宽内存,在推理方面的表现平均超过 H20030%。
公司预计将会在 2025 年中发布 MI350X,其 AI 推理性能将会较 MI300提升 35 倍。英特尔有 Gaudi 3 对标英伟达 H100。英特尔今年 4 月宣布了新一代人工智能芯片 Gaudi 3 人工智能加速器,在 9 月份正式发布。
Gaudi 3 采用台积电代工,5nm 制程,英特尔称其性能优于英伟达的 H100。站在当前的阶段,在已经量产的 AI 服务器的 GPU 中,英伟达的 AI 算力芯片性能更加领先,而在下一代迭代中的 AI 芯片,AMD 正在追赶英伟达。同时,头部的 AI 大模型厂商大都在自研 AI 算力芯片。
通过自研芯片,大模型厂商可以更加贴合自身的模型能力的需求来设计芯片的能力,从而取得更优的成本。尤其是对于 AI 算力芯片需求较大的厂商,他们自研芯片更加迫切。例如,谷歌自研的 TPU 提供云服务价格比 GPU 更加有优势。
GPU 最初是用来处理图形和图像渲染任务。随着技术的发展,GPU 才体现出在超高性能计算、尤其是 AI 服务器中的能力优势。在个人电脑(PC)上,GPU 主要用来图形渲染、视频处理、提高游戏性能、为专业软件加速。在 PC 处理器中,GPU 会作为配合 CPU 运算重要的一环,可以和 CPU 一起集成在处理器中,也可以单独为电脑提供计算支持。
根据 Jon Peddie Research,英特尔占据 PC 端 GPU 的份额在 60%以上,这主要因为英特尔处理器在电脑端占据主导份额。在今年前 2 个季度,英伟达的份额接近 20%,而 AMD 的份额在 16%,落后于英伟达。GPU 作为逻辑芯片的一种,尽管保持增长势头,但是依然具备半导体的周期特性。
在本轮全球半导体上行的过程中,全球半导体季度销售额同比增速在2023 年一季度触底(-21%),随后开启上行,同比增速连续改善至今年二季度的+20%。PC 端 GPU 的季度出货量同比增速与该趋势非常接近,同比增速同样在 2023 年一季度触底(-40%),随后一路上行至今年一季度的 21%。
从长期看,例如 3-5 年甚至更长的时间,服务器 GPU 的竞争格局会产生演变。当前 AI 大模型处于百家争鸣的阶段,行业初期红利叠加大量市场/巨头资金支持,推动行业加速发展。高增长、高容量的行业也会孕育较激烈的竞争环境。根据浦银国际互联网团队的调研结果,今年以来 AI 大模型厂商收费单价大幅度下滑,较降价前下滑 90%。当然,目前行业并没有进入 AI 大模型厂商的“生死”时刻。
在行业商业模式落地和商业变现的过程中,行业对 AI 大模型厂商综合能力,包括技术、产品、营销、管理,提出更高的要求,也对厂商的利润能力提出要求。在这个阶段,部分或者大量的 AI 大模型厂商退出行业。这会在一段时间内对 AI 服务器 GPU 行业造成大量供给释放的冲击。即头部的 AI 大模型厂商有望以较低的价格获取已经退出市场的 AI 大模型玩家的算力,从而导致 AI 算力芯片短期的拉货动能下滑。
在这个阶段,投资人应该保持更加谨慎的投资态度,等待行业消化剩余产能。从 AI 服务器 GPU 行业来看,英伟达接近垄断的市场格局也可能因为市场规模的大幅增长而发生改变。一方面,头部的 AI 大模型玩家会有意愿开发并自研 AI 算力芯片以取得客制化差异化性能和成本优势。
特斯拉的 Dojo 超算、谷歌的 TPU 芯片、百度的昆仑 AI 芯片等,都存在取代/部分取代当前英伟达算力芯片的可能。另一方面,在 AMD 以及其他初创公司 GPU 等 AI 算力芯片性能存在部分优势的情况下,AI 大模型厂商也会有意愿增加非英伟达芯片使用量以促进 AI 算力芯片的竞争,平衡供应商之间的成本。
对于英伟达来说,尽管长期来看其 AI 算力芯片份额下行风险大于维持近乎垄断地位的风险,但是基于头部优势,英伟达在维持大多数产品的性能和成本优势的同时保持相对健康的利润率是比较有保障的。
更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑设计、境外投资报告等相关咨询服务方案