一、模型端:海内外科技巨头竞逐,国产开源大模型快速崛起
2025 年 4-5 月份,以 OpenAI、谷歌、Meta 和 Anthropic 为代表的海外科技巨头集中更新大模型,整体呈现向“长上下文+强推理+低成本+多模态”等方向发展的趋势。
OpenAI:当地时间 4 月 14 日,OpenAI 正式推出GPT-4.1 系列模型,包括标准版GPT-4.1、轻量高效的 GPT-4.1 mini 和最具性价比的GPT-4.1 nano 三个版本。GPT-4.1 系列模型在多模态能力、代码能力、指令遵循和成本方面实现显著提升。其中,在长上下文方面,GPT-4.1 系列模型均拥有最高100 万Token 的超大上下文窗口,是 GPT-4o 的 8 倍。在性能提升的同时,GPT-4.1 相比GPT-4o 价格降低了26%。
谷歌:继今年 3 月底推出 Gemini 2.5 Pro 模型后,谷歌紧接着在4 月发布了更为轻量的 Gemini 2.5 Flash 版本。而在 5 月 Google I/O 开发者大会上,谷歌再次对Gemini 2.5 模型系列进行更新,其中,Gemini 2.5 Pro 版新增“Deep Think”模式,通过并行推理技术,使 Gemini 2.5 Pro 在数学、编码和多模态推理等领域的表现甚至优于 OpenAI 的 o3 模型。
Meta:当地时间 4 月 5 日,Meta 发布 Llama 4 系列开源模型,包括专为高效信息提取与复杂逻辑推理打造的 Llama 4 Scout、专注于多模态能力的Llama 4 Maverick,以及具备总参数高达 2 万亿、号称 Meta 未来最强大最智能模型的Llama 4 Behemoth(预览版)。Llama 4 模型是 Llama 系列模型中首批采用混合专家(MoE)架构的模型,训练和推理效率更优。在长文本能力上,Llama 4 Scout 模型支持高达1000万token 的上下文窗口,刷新了开源模型的纪录。
Anthropic:当地时间 5 月 22 日,Anthropic 发布其最新的Claude 4 系列模型,包括旗舰型号 Claude Opus 4 和更侧重效率的 Claude Sonnet 4,新模型在编程能力实现了重大突破,Opus 4 在 SWE-bench(软件工程基准测试)得分72.5%,可处理百万行代码库并连续编程 7 小时。
国产开源大模型快速崛起,与美国顶尖模型差距接近抹平。根据斯坦福大学发布的《2025年人工智能指数报告》显示,中国高性能 AI 模型的数量和质量正不断提升,与国际顶级模型之间的性能差距正在缩小。2023 年,在大规模多任务语言理解测试(MMLU)中,中国领先模型落后于美国顶级模型 17.5 个百分点。然而,到2024 年底,中美顶级模型性能差距已经缩小至 0.3 个百分点,接近抹平,美国此前在模型质量方面的领先优势已经消失。
2025 年 1 月 20 日,国内 DeepSeek(深度求索)公司发布DeepSeek-R1模型,为全球人工智能领域带来巨大的革新。DeepSeek-R1 模型在后训练阶段大规模使用了强化学习技术,在使用极少标注数据的情况下,显著增强了模型推理能力,性能上比肩OpenAI o1 等海外领先大模型。2025 年 1 月 29 日,阿里通义千问上线Qwen2.5-Max,该模型一经发布便在 MMLU-Pro 等多项主流模型基准测试中取得领先成绩,是中国AI阵营在高性能、低成本技术路线上的又一重要突破。
近期,阿里通义千问及DeepSeek先后更新模型,4 月 29 日,阿里通义千问推出 Qwen3 模型,相比DeepSeek-R1 模型,Qwen3的参数规模缩减了三分之二,而性能方面却实现了全面超越。紧接着5 月份,DeepSeek-R1模型完成小版本更新升级至 DeepSeek-R1-0528,更新后的模型在复杂推理任务中的表现有了显著提升,在整体表现上已接近其他国际前沿模型包括o3 和Gemini-2.5-Pro等。
此前,英伟达 CEO 黄仁勋表示,DeepSeek 和阿里通义千问(Qwen)是“当前表现最优的开源 AI 模型之一”。以 DeekSeek 和阿里通义千问为代表的国产开源大模型快速崛起,有望推动国内 AI 应用端加速繁荣,预计我国将进入人工智能高速发展期。
二、 应用端:AI Agent 迎来爆发元年,MCP、A2A 协议并行加速生态繁荣
AI Agent 重塑人机协作方式,推动效率变革。以 DeepSeek 为代表的基础模型能力的提升,推动 AI 应用从浅层交互向深度自主决策演进,促进AI Agent 快速落地。AIAgent(智能体)是由大语言模型(LLM)驱动的具有感知环境、推理、决策及行动能力的智能实体。区别于需要人类指令触发任务的传统人工智能工具,AI Agent 可主动与周边环境及其他主体进行互动,动态适应变化情景。在大模型的支持下,AI Agent 正在从“工具附庸”转变升级为“智能协作者”,重塑人机协作方式,有望推动生产效率变革。
2025 有望成为 AI Agent 爆发元年,国内通用型 AI Agent 快速落地。AI Agent作为新一代智能交互范式,目前成为海内外科技巨头、大模型厂商集中发力的方向,2025年有望成为 AI Agent 商业爆发元年。2025 年 1 月,OpenAI 发布首个AI Agent 产品Operator,用户只需简单描述需求,Operator 即可模拟人类操作计算机的能力,完成在线订餐、购买机票等任务。
2025 年 3 月,Monica 发布了全球首款通用型AI 智能体Manus,其具备复杂任务自主处理能力,能够完成筛选简历、旅行规划、股票分析等任务。在GAIA基准测试(评估 AI 智能体综合性能测试)中,Manus 取得 SOTA 成绩,展示其性能超越OpenAI同级别模型,Manus 的发布标志着国内通用型 AI Agent 的崛起。
在Manus 指出方向以后,4 月以来,国内类似的通用型 Agent 产品纷纷上线,其中包括字节旗下的扣子空间、百度的心响 APP、360 的纳米 AI 等等。这些产品都主打“一站式”解决用户通过自然语言布置的复杂任务,同时均内嵌了专家生态,通过调用不同领域的“专家Agent”来协同提供服务,提升任务处理的效率和专业性。
根据 CB Insights 统计数据显示,2020年至2025 年 2 月,通用型 AI Agent 创企累计获得融资额 35 亿美元,远超垂直行业型创企获得的 13 亿美元,资本市场对通用型 AI Agent 领域展示出更强的偏好。在市场成熟度方面,通用型 AI Agent 在商业应用上更为成熟,超过三分之二的市场正在部署或扩展AI解决方案,其中,客户支持、软件开发、销售和通用企业工作流程等赛道较为活跃,而垂类智能体处于新兴和验证阶段,预计未来垂直行业智能体将向部署阶段推进。
MCP 和 A2A 协议并行运行,推动 AI Agent 生态加速繁荣。在MCP 出现以前,Agent若想调用外部工具或数据源,面临着接口各异、生态割裂、开发与维护成本高等难题。为应对该问题,2024 年 11 月,Anthropic 发布了 MCP 协议。
MCP 就像是AI 应用中的USB-C接口,Agent 可以通过这个标准化的“万能接口”自由调用外部工具或者数据源,从而支持开发者构建更强大的 AI Agent 生态。2025 年 2 月以来,海内外科技巨头纷纷宣布支持 MCP 协议,并推出自己的 MCP 平台,邀请各路开发者、应用服务商入驻,极大方便了各方的数据往来。
3 月,OpenAI 宣布对核心开发工具 Agent SDK 进行更新,正式支持MCP 服务协议,以自身的影响力,将 MCP 协议的行业地位提升至类似HTTP 的底层基础设施属性程度。随后,Cursor、Windsurf、Cline 等开发工具平台相继接入,国内的百度、腾讯、阿里等大模型厂商也密集布局 MCP 协议,进一步推动该协议普及。此外,4月,谷歌在 MCP 协议基础上推出 A2A 协议作为功能“互补”,旨在让AI Agent 实现跨平台、跨框架、跨厂商间的互联互通,打破智能体间的信息孤岛问题。MCP 协议打通Agent与工具/数据的连接,A2A 协议则解决了多 Agent 间的操作,两者并行运行,推动AIAgent加速发展。
AI Agent 有望率先在企业服务类和需求简单、容错率较高的消费级场景中落地。AIAgent落地的商业化价值在于为用户实现降本增效以及覆盖个性化需求。从场景来看,企业服务由于具有天然承载业务流程、数据资源和 ROI 提升显著等优势,有望率先成为AIAgent落地和释放价值的场景,办公/OA/ERP/CRM 等 SaaS 厂商有望受益。
例如,海外SaaS龙头 Salesforce 推出的 Agentforce 帮助全球领先的人才解决方案提供商Adecco处理海量规模的求职申请,通过分析应聘者技能和职位要求,筛选出最佳人选,提高了招聘效率。而消费级场景中,AI Agent 有望在游戏、文旅、电商、零售等需求较为简单、容错率较高的场景中较快渗透,逐步向其他复杂领域扩展。
三、算力端:AI 算力维持高景气,AI 服务器、AI 芯片发展空间广阔
训练端算力维系增长,AI Agent 爆发有望拉动推理端算力需求激增。从训练端看,AI大模型距离实现 AGI 还有很长的距离,基础模型仍需不断探索,头部大模型厂商仍在投入更大规模的训练,例如 Meta 仍在训练的 Llama 4 Behemoth 总参数规模接近2万亿,未来训练端算力仍将维持增长态势。
从推理端看,智能体的爆发将驱动推理端算力实现十倍甚至上百倍的跃升。我们认为主要原因是:1)Agent 单次任务的背后可能涉及复杂的长上下文和推理的过程,对于需要执行多步规划、工具调用和多Agent 协作通信的任务则需要更多的算力支持;2)Agent 类产品应用场景不断拓展,涉及多模态场景需要整合文本、图像、音频、视频等多种数据类型,其输入/输出的token 消耗要比纯文本更高。
2025Q1 北美四大云厂商合计资本开支高增,算力高需求有望延续。根据北美四大云厂商包括谷歌、微软、Meta 和亚马逊财报数据,2025Q1,四大云巨头营业收入均超市场预期。例如,Meta 一季度营收同比增长 16%,其 Azure 云业务营收同比高增33%,其中AI服务对 Azure 云业务增长的贡献达 16 个百分点,验证目前 AI 应用商业化进程进一步加快。
资本开支方面,2025Q1,四大云厂商合计资本开支达到了766 亿美元,同比高增64%,主要用于硬件设备购买及数据中心投资建设方面,以支持云业务及人工智能相关业务的发展。在后续资本开支指引方面,谷歌、微软表明将维持年初资本开支指引不变,Meta则进一步上调了全年资本开支指引,从年初指引的 600-650 亿美元提升至640-720亿美元,反映了公司为支持 AI 产业发展将继续扩大数据中心的投资,同时考虑了基础设施硬件成本的上涨。根据目前北美四大云巨头最新一季度的资本开支情况和对未来资本开支指引的表态来看,预计未来全球 AI 算力需求仍将保持高位。
国内领先企业均表达对 AI 发展的高度重视,国内算力需求有望维持高景气。国内方面,今年以来,阿里巴巴、华为、腾讯等国内领先企业均表达出对AI 发展的高度重视。2月,阿里巴巴宣布,未来三年将投入超过 3800 亿元人民币,用于建设云和AI 硬件基础设施,总额超过去十年总和,并在 3 月与中国移动签署战略合作协议,将基于云、算力、大模型等共建 AI 产业新生态。
华为在 3 月的中国合作伙伴大会上宣布将全面推进全面智能化战略,包括打造算力底座,繁荣昇腾 AI 生态,用 AI 赋能华为产品等。腾讯则在数月前开始重组 AI 团队以聚焦于快速的产品创新及深度的模型研发,并在3 月的年报电话会上表示,2025 年将继续增加 AI 相关的资本开支,资本开支预计将占收入的低两位数百分比,以持续推进 AI 研发与推广。
5 月,腾讯公布 2025 年一季度财报数据,其中资本开支达到 274.8 亿元,同比增长 91%,在 AI 方面投入显著加码。随着国内科技巨头继续加码 AI 领域投入,预计未来 AI 仍将保持较高的发展速度,国内AI 算力有望维持高景气。根据 IDC 与浪潮信息联合发布《2025 年中国人工智能计算力发展评估报告》指出,大模型快速迭代和生成式人工智能发展推高算力需求,中国AI 算力增速高于预期。
2024年,中国智能算力规模达 725.3 EFLOPS,同比增长 74.1%,增幅是同期通用算力增幅(20.6%)的 3 倍以上。未来两年,中国 AI 算力仍将保持高速增长,预计2025年中国智能算力规模将达到 1,037.3 EFLOPS,较 2024 年增长 43%;2026 年,中国智能算力规模将达到 1,460.3 EFLOPS,为 2024 年的两倍。
英伟达将于第三季度推出下一代 GB300 系统,在 AI 计算领域持续创新。英伟达作为GPU领导厂商,目前占据全球 AI 芯片的主要市场。根据集邦咨询,预计2025 年英伟达的芯片在全球服务器市场的占比约为七成。2025 年 5 月 19 日,在Computex 2025 电脑展上,英伟达创始人兼 CEO 黄仁勋宣布了包括 GB300 系统在内的多项成果发布。
据介绍,GB300将于今年三季度面世,系统配备了升级版 Blackweel 芯片,与上一代GB200 相比,G300系统拥有相同的物理占地面积、相同的电气机械,但内部芯片全面升级,其推理性能提升了 1.5 倍,HBM 内存容量增加了 1.5 倍,网络连接能力翻倍,增强了整体系统性能。此
外,黄仁勋还展示了英伟达全新的 GB300 NVL72 AI 服务器,其配备72颗BlackwellUltra AI GPU 和 36颗基于 Arm Neoverse 的 Grace CPU,采用机架级设计,单个GPU拥有 288GB 的 HBM3E 内存。与此前的 GB200 NVL72 AI 服务器相比,GB300 NVL72AI服务器的性能提高了 50%,额定功率为 1.4kW,专为先进的 AI 推理和测试扩展而设计,支持复杂的 AI 工作负载,预计将在今年三季度开始进入量产。
美国芯片出口管制趋严,国产芯片厂商迎重要发展窗口。近年来,美国对华科技制裁日益加码。2025 年 4 月 16 日,英伟达发布公告称,美国政府于4 月9 日通知其向中国(包括香港和澳门)出口 H20 芯片,以及任何其他性能达到 H20 内存带宽、互连带宽或其组合的芯片时,都必须获得出口许可。
4 月 14 日,美国政府通知英伟达,该许可要求将无限期有效。考虑地缘政治风险的复杂性和不确定性,未来美国芯片出口管制有望进一步收紧,这为国产芯片厂商提供了重要的发展窗口。
根据IDC 数据显示,2022 年,中国AI 加速卡出货量约为 109 万张,其中英伟达在中国 AI 加速卡市场份额为85%,华为市占率为 10%,百度市占率为 2%,寒武纪和燧原科技均为 1%。到了2024 年,国内AI加速卡出货量超过 270 万张,其中英伟达的 GPU 芯片市场份额下降至70%,而华为昇腾市场份额显著提升至 23%。其余天数、寒武纪、沐曦、燧原、太初、摩尔线程等国产芯片厂商也在不断发力,2024 年合计市场份额约为 7%。虽然英伟达在我国AI 芯片市场份额有所下降,但目前仍占据主导地位,国产 AI 芯片未来替代空间广阔。
华为昇腾引领国产 AI 芯片厂商逆势崛起。近年来,以华为昇腾、海光信息、寒武纪为代表的国内头部芯片厂商快速崛起,利好消息频出。华为方面,华为昇腾在2018、2019年分别针对推理、训练侧推出昇腾 310 和昇腾 910 人工智能处理器,并在2023年推出了升级版昇腾 910B,其在单卡性能上可对标英伟达 A100,而正在生产的华为昇腾910C与英伟达的 H100 性能接近。
2025 年 4 月 10 日,华为云发布CloudMartix 384超节点,并宣布已通过昇腾云正式商用。该产品使用 384颗910C 芯片堆叠制程,在性能端产品算力指标优势明显,BF16 性能达到 300 PFLOPS,约为 GB200 NVL72 的1.7 倍;HBM总容量为 GB200 NVL72 的 3.6 倍。海光信息方面,2025Q1,公司营收同比增长50.76%,归母净利润同比增长 75.33%,业绩超出市场预期;公司合同负债金额高增至32 亿元,彰显公司订单需求旺盛。5 月 25 日晚,海光信息与中科曙光发布公告称双方正在筹划由海光信息向中科曙光全体 A 股换股股东发行 A 股股票的方式换股吸收合并中科曙光,并发行A 股股票募集配套资金。
中科曙光是国内高端计算机领域的领军企业,主要从事研究、开发、生产制造高性能计算机、通用服务器及存储产品。本次吸收合并后,海光信息将整合双方资源,实现从高端芯片设计到高端计算机整机、系统的闭环布局,实现产业链“强链补链延链”,进一步增强公司竞争力,打造成为国产芯片巨头。寒武纪方面,2025Q1,公司营收同比暴增 4230.22%,归母净利润同比扭亏为盈,随着国内CSP 厂商需求增长,公司 AI 芯片有望加速放量,公司业绩有望维持高增。
全球 AI 服务器需求旺盛,ODM 厂商迎发展新机遇。据 TrendForce 报告显示,2024年,全球 AI 服务器出货量较上年同比增长 46%至 198 万台,占整体服务器市场比重为12%,因其价值量更高,市场规模有望超过两千亿美元。Trendforce 预测,2025 年全球AI服务器出货量将同比增长 24.5%,整体需求依然旺盛。从全球AI 服务器生产厂商来看,随着 CSP 厂商定制化需求不断增长,ODM 厂商订单增长强劲,推动公司业绩快速增长。
目前,AI 服务器 ODM 厂商中,鸿海精密(以工业富联为核心)、纬创(旗下纬颖)、广达(QCT 为主)以及英业达等中国台湾厂商占据领先地位。2025Q1,四家ODM 头部厂商业绩同比显著增长,营收合计达到 26335 亿新台币,同比增长34.86%;归母净利润合计达到686 亿新台币,同比增长 77.41%。
2024 年国内 AI 服务器市场规模激增,浪潮、宁畅、华为出货量位居前三。国内AI服务器市场方面,根据 IDC 数据显示,2024 年中国 AI 服务器市场规模达到221 亿美元,同比 2023 年大幅增长 134%。其中,搭载 GPU 的 AI 服务器依然占据主导地位,2024年市场份额达到 69%。2024 年,从厂商销售额来看,浪潮、宁畅、新华三位居前三,占据了超过 50%的市场份额;从服务器出货量来看,浪潮、宁畅、华为位居前三名,占总体近55%的市场份额。从下游客户来看,互联网依然是 AI 服务器最大的采购行业,占整体AI服务器市场超过 65%的份额。
未来伴随着互联网企业和大模型厂商不断加大对AI领域投资力度,国内 AI 算力需求有望维持旺盛,国内 AI 服务器市场未来成长空间广阔。IDC预测,到 2029 年中国 AI 服务器市场规模将超过千亿美元。
更多行业研究分析请参考思瀚产业研究院官网,同时思瀚产业研究院亦提供行研报告、可研报告(立项审批备案、银行贷款、投资决策、集团上会)、产业规划、园区规划、商业计划书(股权融资、招商合资、内部决策)、专项调研、建筑设计、境外投资报告等相关咨询服务方案。