首 页
研究报告

医疗健康信息技术装备制造汽车及零部件文体教育现代服务业金融保险旅游酒店绿色环保能源电力化工新材料房地产建筑建材交通运输社消零售轻工业家电数码产品现代农业投资环境

产业规划

产业规划专题产业规划案例

可研报告

可研报告专题可研报告案例

商业计划书

商业计划书专题商业计划书案例

园区规划

园区规划专题园区规划案例

大健康

大健康专题大健康案例

行业新闻

产业新闻产业资讯产业投资产业数据产业科技产业政策

关于我们

公司简介发展历程品质保证公司新闻

当前位置:思瀚首页 >> 行业新闻 >>  产业新闻

国产 AI 芯片软件生态资源现状
思瀚产业研究院    2025-11-26

1、国产 AI 芯片分类及代表性厂商

结合技术路线与核心应用场景,国产 AI 芯片当前已呈现出多元化的技术路径,大体可以按照主要承载的计算负载分为三类:一类是聚焦神经网络等智能算法的专用加速芯片,一类是同时服务于科学计算与智能计算的通用计算型芯片,一类是兼顾图形渲染与 AI 计算的图形计算型芯片。其中,专用 AI 加速芯片以 NPU(神经网络处理器)及面向云端训练/推理的数据专用架构(DSA)芯片为代表。此类芯片普遍摒弃传统图形流水线与大规模双精度单元,围绕矩阵运算、张量计算等神经网络核心算子进行深度硬件优化,从而在 AI 核心任务上实现更高的算力密度与能效比。

代表厂商包括华为昇腾与寒武纪:前者依托“鲲鹏+昇腾”体系打造覆盖“云、边、端”的全场景AI 基础设施,后者则通过思元 MLU 系列芯片构建云端推训一体及边缘推理产品矩阵,在大模型训练、推理及行业化落地方面积累了较强的技术与市场基础。同时,以燧原科技等为代表的云端 AI 训练/推理加速芯片厂商,同样属于该类,其采用针对AI 工作负载深度定制的专用架构,在大型模型训练和高并发推理场景下追求极致的性价比与能效表现。

面向“HPC+AI”融合场景的通用计算型芯片,则主要服务于科学计算、工程仿真与 AI 工作负载并存的数据中心和高性能计算平台。海光信息推出的DCU是这一技术路径的代表,其通过 DTK 软件平台全面对接 AMD ROCm/HIP 生态,在编程模型与库接口层面与 CUDA 保持高度相似,使原有GPU/HPC 应用可以在较低迁移成本下平滑迁移至国产平台。

该路线在保留高双精度与混合精度浮点能力的同时,为深度学习训练和推理提供可观算力与带宽,尤其适合需要同时运行传统数值仿真、MPI/Fortran 等高性能计算任务以及 AI 任务的科研机构与行业用户,满足“科学计算+智能计算”一体化的算力需求。在通用 GPU 厂商中,摩尔线程与壁仞科技是两条代表性技术路径。

摩尔线程官方定位为以“全功能 GPU”为核心的国产 GPU 厂商,基于自研MUSA架构及配套软件栈,其单芯片产品集成 AI 计算加速、图形渲染、物理仿真、科学计算和超高清视频编解码等多类功能,可覆盖大模型训练/推理、可视化渲染、视频云和交互式图形等多元应用场景,并通过面向 CUDA 生态的迁移工具和主流深度学习框架适配,在一定程度上降低了存量开发者和软件资产向国产平台迁移的门槛。

壁仞科技则更聚焦于高端通用 GPGPU 与大规模数据中心算力平台,其BR 系列通用GPU 及配套板卡和整机系统主要面向云数据中心、运营商和智算中心等场景,用于支撑大模型训练、AI 推理及高性能科学计算等通用计算负载,在算力密度和能效比上对标国际主流水平,成为“云端大算力”方向国产通用GPU 的重要代表。

需要指出的是,部分厂商在不同产品线之间同时布局多条技术路径,例如沐曦旗下一方面通过曦思 N 系列切入 AI 专用加速芯片赛道,另一方面以具备较强高精度算力的曦云 C 系列服务“通用计算+AI”融合负载,同时还通过曦彩G系列覆盖图形渲染与可视化场景,因而应按芯片产品线而非企业主体进行分类。

2、CUDA 生态对标及“兼容”的层次解析

我们以 CUDA 作为对标标杆,但如果不区分软硬件栈中的不同层次,就很难理解各家国产厂商口中的“支持 CUDA 生态”“兼容CUDA 编程”的真实含义。同样一句宣传语,对于只写 Python 脚本的算法工程师、需要维护C++/CUDA 内核的框架与 HPC 开发者、以及芯片厂商内部做驱动与Runtime 的工程师而言,所对应的技术内涵和迁移成本完全不同。业界讨论“国产GPU是否要延续 CUDA/Stream 语义”这一问题,本质上也需要放在这样的分层框架下才能说清楚。

首先需要明确,“兼容 CUDA”绝不是指在硬件架构或驱动层面与NVIDIA做二进制级、一致性兼容。NVIDIA 的 GPU 指令集和 CUDA Driver/Runtime(针对Ampere、Hopper 等架构)是封闭的、受专利保护的体系。

国产GPU(例如摩尔线程的 MUSA 架构)在硬件微架构、指令集以及驱动实现上均为完全自研,不可能在这一层做到“直接替换 NVIDIA 驱动即可使用 CUDA 程序”这样的兼容。当前国产厂商宣传语下所说的“兼容 CUDA”,主要是指在所谓“核心工具层”,即数学库、深度学习算子库、通信库等位置,提供与 CUDA 关键库在函数名、参数形式和语义行为上相同或高度相似的 API,从而实现源代码级的平滑迁移。从开发者视角来看,整个 AI 软硬件栈可以粗略划分为三个层次。

层次一,AI框架应用层(面向算法工程师)。这包括绝大多数 AI 算法工程师、数据科学家,其主要工作聚焦于模型结构设计、训练策略、数据处理与推理部署等。他们的日常工作形态,一般是在 PyTorch、TensorFlow 等主流深度学习框架中编写Python 训练和推理脚本,通过 tensor.to("cuda")、model.cuda() 或设置 device="cuda:0" 等方式选择计算设备,依赖框架内置或第三方提供的高层 API,很少直接接触cuBLAS、cuDNN、NCCL 等底层库。

对于这部分开发者而言,无论底层芯片采取“API 兼容CUDA”(如摩尔线程,通过 Torch-MUSA 等插件提供 tensor.to("musa"))还是“自有 API 体系”(如华为昇腾,通过 torch_npu 提供 tensor.to("npu")),厂商都会通过框架插件把底层复杂性屏蔽掉,他们通常只需要改动设备字符串、安装相应wheel包与驱动即可完成迁移。因此,在这一层上,“是否 CUDA API 兼容”并不是决定性因素,迁移体验好坏更多取决于框架插件是否成熟、算子覆盖是否完整以及性能与稳定性是否达标。

层次二,核心工具层(面向 HPC 与框架开发者)。这一层面主要是高性能计算工程师、深度学习框架与中间件开发者,以及需要手写C++/CUDA 自定义算子的资深算法工程师。他们直接与 cuBLAS、cuDNN、NCCL 等库打交道,编写.cu内核并使用 NVCC 进行编译,向上为 PyTorch、TensorFlow 等框架提供高性能算子与通信组件,并通过多 Stream 与事件机制实现通信与计算的异步重叠。在这一层,“兼容 CUDA”与否会带来数量级不同的迁移工作量。

如果走“API 兼容”路径(以摩尔线程 MUSA 为代表),厂商会提供 muBLAS、muDNN 等库,其函数命名、参数列表、调用语义与 cuBLAS、cuDNN 尽量保持一致,对于一个已经大量调用cuBLAS/cuDNN 的 C++ 项目,往往只需在构建脚本中将链接库从-lcublas -lcudnn换成 -lmublas -lmudnn,并使用 MUSA 对应的编译工具链重新编译,即可在国产GPU 上跑起来,只在个别未覆盖或语义略有差异的接口处做小范围修改。

相反,如果走“API 不兼容、构建自有生态”的路径(以华为昇腾CANN 为代表),则需要将原有调用 cuBLAS、cuDNN、NCCL 的代码整体改写为调用AOL、HCCL 等新接口,自定义内核也要按 CANN 的规范重写、改用 ATC 等工具完成编译与部署。对这类用户来说,迁移的含义已经从“适配新平台”变成了“重写一套底层实现”。因此,核心工具层才是“CUDA 兼容性”价值的关键所在:它直接决定了既有CUDA 代码资产能否在国产平台上以较低成本继续发挥作用。

层次三,基础支撑层(驱动与 Runtime 层)。这一层面主要面向芯片厂商内部的硬件、驱动与 Runtime 工程师,以及与之对接的操作系统与虚拟化平台开发者。其工作关注 GPU/NPU 指令集设计、任务调度与内存管理机制、设备驱动程序以及底层 Runtime 库实现等。这一层与具体硬件架构深度绑定,NVIDIA 自身的CUDADriver/Runtime 与 Ampere、Hopper 等架构强耦合,且为封闭实现,国产厂商不可能在这一层做“兼容 CUDA”的迁移,只能在理念上对标,比如提供类似nvidia-smi的监控工具和类似 CUDA Runtime 的编程模型,但底层实现必然是一整套完全不同的体系(如 MUSA Driver、CANN Driver 等)。对普通开发者而言,这一层几乎没有所谓“迁移路径”,更多是厂商内部工程能力和生态建设的问题。

综合来看,“兼容 CUDA”本质上是一个面向“核心工具层”的工程承诺,它的直接受益者是那些积累了大量 C++/CUDA 代码、需要维护高性能算子和通信组件的框架团队与 HPC 团队。对于停留在框架应用层的大多数算法工程师来说,更需要关注的是:厂商是否提供成熟的 PyTorch 等深度学习框架插件,是否支持自身常用的模型与算子,以及实际性能、稳定性和调试体验是否达标;对于深度依赖CUDA 自定义算子和 HPC 代码的团队,则需要重点考察国产厂商在核心工具层的API 兼容程度、文档和样例的完备性以及工程支持能力。

放在上述分层框架下来看,业内常说的“延续 CUDA/Stream 语义”,其实更多是指在核心工具层与框架后端继续采用“流/队列 + 异步核函数 + 事件同步”这一类编程抽象,而不是在指令集或驱动层做二进制级兼容。当前国产方案的总体趋势是:在不牺牲自研指令集与硬件架构创新空间的前提下,尽可能在 API 设计与工具链形态上对齐CUDA生态的使用习惯,从而在 C/C++ 开发体验和运维调优方式上降低开发者的迁移门槛。

3、 国产 AI 芯片软件生态完善度评价

从基础支撑、核心工具、框架适配和管理监控四个层次,对国内主流 AI 芯片的软件生态进行分层评价,力图在与NVIDIA CUDA 体系对比的视角下,勾勒出各厂商当前的可用程度与主要短板。

(1)华为昇腾

在基础支撑层,CANN Driver/Runtime 提供了较为稳定的驱动、Runtime 与固件管理,主流 Linux 发行版与容器镜像均已支持,日常使用中驱动安装和升级流程相对规范,开发者可以类比 CUDA Toolkit 的体验来理解这一层。在核心工具层,ATC 编译器、ACL/AOL 算子库以及HCCL 通信库覆盖了常见CNN、Transformer 等模型的主流算子和分布式通信路径,官方和第三方实践表明,大模型训练经过针对性调优后可以达到较高的硬件利用率,但新模型结构和长尾算子仍需依赖厂商支持或自行扩展。

在框架适配层,华为一方面通过 MindSpore 提供“原生后端”,另一方面通过torch_npu 等插件适配 PyTorch 等主流框架,典型训练 / 推理脚本一般只需替换设备类型与后端初始化即可迁移,但与 CUDA 相比,三方库支持度、社区教程数量仍然偏少。

在管理监控层,npu-smi、MindStudio 等工具基本覆盖了设备监控、Profiling 和瓶颈分析需求,支持对算子耗时、带宽利用率等进行定位,整体功能上可对标nvidia-smi + Nsight 组合,但生态中尚缺少更多由社区驱动的调优脚本与可视化工具。整体来看,昇腾路线更适合对长期生态建设、自主可控要求较高、能够接受一定迁移投入的大型项目或公共算力平台,在“工具链齐全”方面已具备较强可用性,与 CUDA 相比主要差异集中在开发者积累与第三方生态厚度上,仍处于持续扩展阶段。

(2)摩尔线程

摩尔线程的 MUSA 软件栈在设计上明显以“兼容 CUDA 开发体验”为目标,整体定位是通用 GPU 平台,既覆盖图形渲染,也支持 AI 训练与推理。在基础支撑层,MUSA Driver/Runtime 已经形成较稳定的驱动与运行时发布节奏,支持主流 x86 Linux 发行版,并提供含 muDNN 等库的官方容器镜像,基础安装与运行环境配置相对可控。在核心工具层,MUSA Toolkit 内集成了编译器、muBLAS、muDNN 等对标cuBLAS/cuDNN 的库,torch_musa 中提供了与 CUDAExtension 接口保持一致的MUSAExtension,使现有 C++/CUDA 扩展在较小改动下即可迁移到MUSA平台,但在某些高阶算子、长序列 Transformer 等场景的优化经验仍在积累。

在框架适配层,PyTorch 通过 torch_musa 后端可以完成主流训练和推理流程,已有基于 MUSA 的大模型推理教程,日常开发者主要通过“更换后端+ 安装插件”的方式完成迁移;相比 CUDA,第三方框架和工具链(如部分推理引擎、AutoML工具)的适配覆盖仍不完整。在管理监控层,mthreads-smi、MUSA Dashboard 等工具提供了基础的设备状态查询和资源监控能力,但在细粒度性能分析、自动化调优脚本和集群级调度工具方面,仍然处于建设阶段,整体调优体验与 NVIDIA Nsight、DCGM 等工具体系相比还有差距。

总体而言,摩尔线程的优势在于延续 C++/CUDA 开发习惯,适合存量CUDA代码资产较多、希望在图形 + AI 复合场景中平滑引入国产GPU 的用户;在大规模训练与精细化运维场景,其软件栈仍处于稳步演进过程中。

(3)寒武纪

寒武纪 NeuWare 软件栈在推理场景上的成熟度较高,训练侧生态相对有限,更适合作为行业推理平台而非通用大模型训练底座。在基础支撑层,NeuWare Driver/Runtime 负责 MLU 设备的驱动与资源管理,配套的cnmon 工具可以查看卡状态、温度和利用率,整体功能上可类比CUDADriver+ nvidia-smi。在核心工具层,MagicMind 推理引擎以及 CNNL、CNCL 等库构成了主要能力边界:前者提供基于 MLIR 的图编译与算子优化,面向多框架推理部署;后者覆盖绝大部分常见算子和分布式通信需求。

推理模型(特别是CV 方向)的性能调优工具和最佳实践文档相对丰富,而训练相关库与工具则相对薄弱。在框架适配层,寒武纪提供了 torch_mlu/CATCH 等PyTorch 扩展,以及TensorFlow 等后端适配,主流推理工作流可以通过官方容器和示例工程较快跑通,但在前沿模型和多框架协同方面与 CUDA 有明显差距。

在管理监控层,除基本状态监控外,MagicMind 也提供了Profiling 和性能分析工具,用于定位算子层面的瓶颈,不过在集群级监控与资源调度软件上仍相对依赖上层通用平台。因此,寒武纪当前生态更适合算子形态相对稳定、批量推理需求明确的业务场景;对于需要高频迭代模型结构的大模型训练任务,仍需要在迁移与调优层面投入更多工程建设。

(4)沐曦

沐曦基于 MXMACA 异构计算平台构建软件栈,目标是同时覆盖通用计算与AI训练 / 推理,目前整体处于快速演进阶段。在基础支撑层,MXMACA Driver/Runtime 为曦思 N、曦云C 等产品提供统一的驱动和运行时抽象,支持虚拟化、多实例划分等数据中心场景,基本满足通用GPU 的部署需求。在核心工具层,MXMACA 编译器与 MXNN 算子库、MCCL 通信库构成主要能力,官方资料显示已覆盖主流训练与推理算子,并在数据中心场景支持端到端数据处理流程;但与 CUDA 相比,文档完备度和长尾算子支持仍不够充分,高级调优工具也在持续完善中。

在框架适配层,沐曦提供了与 PyTorch 对接的插件和示例工程,且已完成部分大模型推理框架(如 Xorbits Inference)在曦云 C 系列上的适配,能在单卡完成中大型模型推理,但整体生态规模与 CUDA 仍有明显差距。在管理监控层,当前更多依赖通用容器平台和自研运维工具,设备监控与资源管理能力基本可用,但在大规模集群调度与一体化运维平台上仍处于建设期。整体来看,沐曦的软件栈在“通用 GPU + 大模型推理/ 训练”方向展现出一定潜力,对普通开发者而言,随着文档、示例与工具链的持续丰富,上手门槛有望进一步降低。

(5) 海光

海光 DCU 从整体软件路线看,主要基于 AMD ROCm/HIP 软件栈构建,开发模式与 CUDA 有一定相似性,但在库与工具层更依托 ROCm 生态,整体定位于服务“HPC + AI” 融合负载的数据中心。

在基础支撑层,DCU Driver/Runtime 采用 GPU 类通用加速器架构,支持CPU–DCU 异构部署,已有研究和实际应用表明,其在并行度较高的科学计算任务中可以在一定程度上替代传统 GPU 工作负载。在核心工具层,DCU 通过 HIP 兼容接口以及配套数学库等组件复用ROCm上层生态,使既有 HIP/ROCm 应用在较小改动下即可迁移,但面向大模型训练的专用算子库和高阶性能调优工具仍相对有限。

在框架适配层,社区和厂商已完成对 PyTorch、Paddle 等主流深度学习框架的适配,并在新版本中增加了 DCU 侧的 Profiling 等功能,能够支撑常见训练与推理任务;与 CUDA 平台相比,目前公开的最佳实践、调优案例和大规模分布式训练经验仍在逐步积累。在管理监控层,海光提供了类似 nvidia-smi 的 hy-smi 工具,用于查看DCU的利用率、显存占用和温度等运行状态,基本满足单机运维监控需求;

在集群侧,则依托 HAMi 这一异构设备虚拟化中间件,将 DCU 纳入 Kubernetes 集群统一纳管与调度,实现设备复用和拓扑感知调度,该层在国产生态中相对成熟,但整体效果仍受制于云原生与容器平台的持续演进。总体而言,海光 DCU + HAMi 方案适合已有 HPC 基础、希望逐步引入AI 工作负载的机构,在“统一调度异构设备、兼顾 HPC 与 AI”方面具有一定优势,面向大模型场景的专用工具链和实战经验仍在不断充实之中。

(6)壁仞

壁仞 BR 系列 GPGPU 在硬件算力指标上对标高端数据中心GPU,但其软件栈公开信息相对有限,整体更偏向“深度合作 + 厂商支持”模式。在基础支撑层,BIRENSUPA Driver/Runtime 提供了设备驱动与资源管理能力,能满足数据中心部署需求,但具体支持的 OS、虚拟化形态等细节暂未形成完全公开的技术文档。在核心工具层,官方介绍中提及 BRCC 编译器、suDNN 算子库和SCCL 通信库等组件,用于服务大模型训练和高性能计算,但 API 细节和算子覆盖度的公开资料较少,开发者往往需要依赖厂商提供的 SDK 与示例进行适配。

在框架适配层,壁仞提供了面向 PyTorch 的插件和若干行业应用示例,可以支撑基础训练与推理流程,但与 CUDA 平台相比,公开的大型模型适配案例和第三方框架支持仍然有限。在管理监控层,目前公开信息显示主要依赖厂商内部工具和合作方平台,nvidia-smi / Nsight 级别的通用监控与分析工具尚未在社区中形成统一认知。

整体来看,壁仞方案在大算力场景中具备发展潜力,更契合具备较强工程能力、并愿意与厂商建立紧密合作关系的用户;对于希望主要依托公开资料和社区力量完成迁移的团队,其生态成熟度仍需结合具体项目进行评估。

(7)燧原

燧原的软件栈围绕云端推理场景做了较深的纵向优化,在训练和通用计算侧则相对克制。在基础支撑层,云燧 Driver/Runtime 提供了面向数据中心的驱动与资源管理能力,可在主流服务器平台部署,但公开资料更聚焦于具体解决方案而非底层接口细节。在核心工具层,TopsCompiler 与 ENCCL 构成推理优化的主干:前者负责模型图优化和部署,后者负责多卡协同与通信加速,在高并发推理场景下能提供较高的吞吐与能效;与 CUDA TensorRT 体系相比,算子类型和应用场景更集中。在框架适配层,官方已完成对 PyTorch、TensorFlow 等的推理路径适配,开发者通常通过导出 ONNX / 中间格式,再由 TopsCompiler 完成部署;完整的训练支持则相对有限。

在管理监控层,局部公开了运维工具和监控接口,但整体更多依赖于合作云平台或自建监控系统,尚未形成类似 CUDA+NVIDIA 生态那样的统一工具体系。整体而言,燧原更适合已有成熟模型、重点关注云端推理成本与吞吐的场景,在“训练 + 通用计算”方向的软件生态仍处于循序拓展阶段。3.2.2.8 天数智芯天数智芯围绕 DeepSpark 软件生态构建通用 GPU 平台,重点发力AI 推理与行业应用落地。

在基础支撑层,DayChip/CoreX Driver/Runtime 为 GPU 设备提供驱动与运行时支持,配套的安装包与系统镜像主要面向数据中心和边缘服务器场景,基本满足常规部署需求。在核心工具层,DayCompile 编译器与 DayOP 算子库构成基础能力:前者面向自家 GPU 做模型图编译与算子生成,后者提供常用深度学习算子的实现与优化;在此基础上,进一步叠加 IxRT 推理引擎和基于 TVM 的 IGIE 图优化框架,用于完成端到端的图优化和推理加速。

这一层在推理场景的功能密度较高,但通用训练工具链和面向复杂大模型的专用优化能力仍相对薄弱。在框架适配层,DeepSparkInference 等项目提供了覆盖CV、NLP、语音等领域的模型示例,支持在 IGIE/IxRT 上运行,并配套评测结果与部署脚本,降低了在天数 GPU 上进行推理部署的上手门槛;不过与 CUDA+TensorRT 生态相比,模型数量、更新频率以及社区维护规模仍有限。在管理监控层,ixsmi 提供类似 nvidia-smi 的基础监控能力,支持查看设备利用率、显存占用和温度等信息,DeepSpark 平台则在此基础上集成部分评测与管理功能,但针对大规模集群场景的生产级监控与调度能力仍有待进一步验证和完善。

整体上,天数智芯现有软件栈在围绕推理与应用场景构建紧凑一体化方案方面具有一定优势,适用于对成本敏感、希望在国产 GPU 上快速落地多领域推理任务的用户;在训练和高性能科学计算等方向的支持能力仍处于有序补齐阶段。

4、国产 AI 芯片软件社区活跃度对比数据

本节旨在从“官方软件栈资料公开度”“开发者社区讨论活跃度”和“开源代码仓库活跃度”三个维度,对典型国产 AI 芯片生态与 NVIDIA CUDA 进行横向对比,为读者在选型时提供直观参考。这三个维度一方面反映厂商在文档、工具链和开源社区上的长期投入与贡献度,另一方面也体现开发者参与度和生态自发活力,从而帮助用户在性能指标之外,综合判断后续使用过程中的学习成本、问题排查效率以及生态可持续性。

从官方软件栈资料看,CUDA 与昇腾处于绝对第一梯队:前者依托多年全球开发者生态,在 API 说明、最佳实践与教学资源上几乎“想得到的都能找到”;后者凭借完整的 CANN + MindSpore + 云服务,在国产方案中形成最接近CUDA的文档与培训体系。

摩尔线程、寒武纪、沐曦、燧原、天数等厂商的软件栈文档基本覆盖了安装与常规开发路径,但在高阶性能调优、跨平台协同等方面仍有补齐空间;海光 DCU / HAMi 与壁仞则更多依赖社区文档与技术专栏,资料分散度略高、系统性略弱。对普通开发者而言,这一维度直接影响“上手难度”和排错效率。社区活跃度在很大程度上体现用户参与度与生态自驱力。

NVIDIA 依托Developer Forums 与高产的 Technical Blog,长期维持十万级主题与回复,几乎任何问题都能在社区中找到类似案例;昇腾 / MindSpore 依托华为云开发者社区和昇思论坛,技术干货征集与问答活动频繁,形成相对稳定的用户群体。相比之下,多数国产 GPU 厂商仍处于“社区建设期”:官方论坛或讨论区的规模多为几十到数百主题,部分讨论被分散在微信群、公众号和合作社区中,信息查找成本相对更高。表中给出的等级与示意性的发帖量,意在帮助读者快速理解“能否找到同路人”和“遇到问题时有没有人回答”。

开源仓库活跃度主要反映厂商及其生态伙伴对公共代码库的持续投入。NVIDIA 的开源版图最大,不仅仓库数、star 数远超其他厂商,而且在编译器、算子库、推理引擎等关键组件上均有高频提交;昇腾 / MindSpore 与HAMi 则代表了国产阵营中开源投入最系统的两条路线,前者以框架为中心,后者以统一软件栈为核心,都在 star、fork 与贡献者规模上达到“千级”量级。

摩尔线程、寒武纪、沐曦、燧原、天数与壁仞等厂商的公开仓库数多在几十个上下,整体star 规模从数百到数千不等,其中部分项目(如 torch_musa、DeepSparkHub 等)已经具备较强的生态外溢效应。对普通用户而言,这一维度意味着是否容易找到官方或社区维护的示例工程、适配脚本和调试工具。

综合以上三个维度,可以将“官方资料完善度”视为厂商自身投入的窗口,将“社区讨论活跃度”和“开源仓库活跃度”视为用户参与度与生态健康度的外在体现。在实际选型时,性能指标固然重要,但若目标项目高度依赖社区经验迁移、第三方工具以及自定义算子开发,则应优先考虑在三个维度上整体评分更高的平台;反之,对于高度定制、以厂商直连技术支持为主的场景,也可以在保证基本资料完备的前提下,适当权衡社区规模与开源体量。

小结

从开发者视角看,当前国产 AI 芯片在框架适配层已经基本能够支撑主流深度学习工作流,算法工程师在绝大多数场景下可以通过“改设备类型+ 安装插件”的方式完成迁移;在核心工具层和管理监控层,各家厂商在API 兼容度、性能调优工具和集群运维能力上仍存在明显差距,但整体正沿着“对标CUDA/HIP 开发体验、保留自研架构自主性”的方向持续演进。从更宏观的生态视角看,国产 AI 芯片软件生态也已逐步摆脱早期“各自为战”的状态,初步形成了多技术路径并行、厂商间差异化发展的格局。

生态建设大致呈现两大主流方向:一方面,以华为昇腾为代表的“全栈生态”路径,依托较全面的工具覆盖和相对成熟的端到端方案形成合力;另一方面,以摩尔线程、海光为代表的“兼容生态”路径,通过在接口和工具上对标 CUDA/HIP,显著降低用户的迁移成本。同时,应用场景的专业化特征愈发明显,例如寒武纪、燧原科技等厂商聚焦特定细分领域,以能效比或性价比为切入点,满足差异化的市场需求。在此基础上,行业协同也开始出现雏形。

一方面,中国电子技术标准化研究院牵头制定生态兼容性标准,推动不同厂商之间的接口互通;另一方面,华为通过开放 CANN 核心模块、摩尔线程通过兼容 CUDA 的技术路线,为跨厂商技术迁移提供了基础条件;同时,地方政府主导的智算中心在实际部署中采用多厂商芯片混合架构,通过统一调度实现算力的协同输出。

总体而言,需要保持一种既乐观又克制的判断:国产生态已经从“基础可用”逐步走向“特定场景可用”,但在工具链完备性、整体生态成熟度以及开发者基础规模等方面,与国际主流生态相比仍存在明显差距。因此,企业在技术选型时应立足于自身业务需求:明确训练与推理负载、公有云与私有化部署等具体场景,评估现有技术栈的迁移成本与可行性,并审慎考察厂商在相关行业的实际落地案例。选择与自身需求相匹配的方案,而非简单追逐“国产”或“对标某一家厂商”,才是平衡技术投入与业务产出的关键。

免责声明:
1.本站部分文章为转载,其目的在于传播更多信息,我们不对其准确性、完整性、及时性、有效性和适用性等任何的陈述和保证。本文仅代表作者本人观点,并不代表本网赞同其观点和对其真实性负责。
2.思瀚研究院一贯高度重视知识产权保护并遵守中国各项知识产权法律。如涉及文章内容、版权等问题,我们将及时沟通与处理。