过去,AI芯片需求主要由超大规模云厂商拉动。如今,随着国家和公共部门加速推进“主权AI”,市场正在形成第二股重要需求力量,AI芯片的采购重心也由GPU进一步延伸至CPU、内存和封装等全栈环节。
所谓“主权AI”,是指国家或机构在本国法律和监管框架内,构建并掌握可独立运营、可自主控制的AI能力。随着欧盟《AI法》持续推进、美国《云法案(CLOUD Act)》的域外影响引发关注,各国对美国超大规模云平台的依赖正被视为潜在的结构性风险,这也推动越来越多国家加快自建AI基础设施。NVIDIA CEO Jensen Huang今年3月在GTC上提出“国家应直接拥有数据中心”,也被认为反映了这一趋势。
与此同时,Agentic AI的扩散正在进一步改写算力需求结构。token生成主要依赖加速器,即GPU;但在智能体相互调用、需要持续运行的环境中,token调度、编排以及服务管理等任务更多由中央处理器CPU承担。Arm CEO Rene Haas在发布面向AGI的CPU产品时表示,在Agentic AI环境下,CPU需求将增长4倍,“这还是保守估计”。而当主权AI建设上升到国家层面后,这类需求还将被进一步放大。
这一变化已经开始体现在市场预测和企业收入数据中。Kyobo Securities数据显示,NVIDIA 2026财年主权AI相关收入将同比增长逾3倍,超过300亿美元。市场研究机构Gartner预计,到2030年,全球AI云市场规模将达到2670亿美元,其中面向主权需求的新型云将占20%。另有分析指出,若要建设独立的AI技术栈,国家层面的基础设施投入至少需达到国内生产总值(GDP)的1%。
从半导体产业链角度看,这类新增需求与传统超大规模云市场并不相同。主权AI部署场景在电力、冷却和空间方面往往受到更强约束,因此相较于单纯追求极致算力,更重视能效表现;相较于单一加速器采购,CPU与内存的系统级整合需求也更为突出。
业内也逐渐形成一种判断:主权AI建设未必需要投入规模巨大的云级系统,更重要的是根据实际用途配置合适的基础设施。随着大语言模型(LLM)之后,视觉语言模型(VLM)等模型形态日趋多样,在基站、中继站等网络边缘部署中等规模模型的趋势也在增强。
需求由GPU向CPU、内存和封装延伸
NVIDIA在GPU之外加码自研定制CPU“Vera Rubin”,正反映出这一趋势。Arm也已公开自研服务器CPU“AGI CPU”,正式切入市场,并以“在相同功耗下性能提升2倍”为卖点,瞄准替代x86方案。Arm高管Mohamed表示,客户认为现有方案已无法充分满足需求,因此主动寻求支持。在电力和冷却条件更受限制的主权AI场景中,强调优化设计的服务器芯片吸引力正在上升,主权AI的扩张也在加快Arm进入服务器芯片市场的步伐。
在韩国,本土主权AI基础设施投资也正逐步传导至芯片需求。Kyobo Securities表示,韩国已编制9.9万亿韩元AI预算,并在第一阶段投入1.4万亿韩元采购1.3万块GPU。NHN Cloud、Naver Cloud、Kakao被选为项目参与方。其中,NHN Cloud预计,除民间使用部分外,对外供应将在未来5年带来约3000亿韩元营收。
第二阶段投资规模约为2.0805万亿韩元,目标是追加采购从Blackwell到Vera Rubin级别的最新GPU,并建立常态化GPUaaS体系。随着GPU采购持续推进,服务器CPU、内存和封装等全栈需求也有望同步扩大。
Gartner预计,到2030年,欧洲和中东地区将有超过75%的企业把工作负载迁移至本国解决方案。由此来看,这一趋势并非短期政策刺激下的阶段性需求,而更接近一场结构性转向。对于芯片产业而言,这意味着客户结构和产品组合都将迎来新的扩展窗口。
随着主权AI需求规模逐步逼近超大规模云厂商,AI半导体市场也将从过去以GPU为主的单一拉动,转向覆盖CPU、内存和封装的多层次需求结构。随着不同国家推进主权AI的路径逐渐分化,相关芯片需求特征也将进一步细分。业内普遍认为,最终竞争关键仍在于芯片与系统层面的深度整合能力。