IntelとAMDが主導してきたデータセンター向けCPU市場で、新たな競争が始まっている。AIモデルの学習に加え、AI推論の比重が高まるなか、GPUだけでなくCPUの重要性も増しており、NVIDIA、Arm、Alibabaが相次いで動きを見せている。
AWS、Microsoft、Google Cloudなど大手クラウド各社はこれまで、Armアーキテクチャを採用した自社製データセンターCPUをクラウド基盤に展開してきた。ここに来てNVIDIAとArmも独自CPUの投入を本格化。Alibabaは、ArmではなくオープンソースのRISC-Vを採用したデータセンター向けCPU「XuanTie C950」を公開した。
こうした動きの背景には、データセンターにおけるAI推論需要の拡大がある。AIワークロードが学習中心から推論へと広がるにつれ、GPUに加えてCPUの役割も見直されている。
NVIDIAは年次イベント「GTC 2026」で、次世代CPU「Vera」を披露した。狙いはAIエージェント対応の強化だ。
同社によると、VeraはAIファクトリーにおいてCPUが単なる補助役ではなく、中核的な役割を担うことを想定して設計した。Armアーキテクチャを採用し、既存のx86系CPUと比べて50%高速で、電力効率は2倍としている。
GPUでAI市場をけん引してきたNVIDIAだが、エージェント型AIの拡大に伴ってCPUの重要性が高まるなか、CPU分野にも本格的に踏み込む格好だ。
GPUがAIモデルの学習や実行に最適化される一方、CPUは大規模データ処理やAIエージェントのオーケストレーションを担う。NVIDIAはMetaへのVeraの大規模導入を計画しており、GPUとは別にCPUも大規模に供給する点が注目される。
半導体IPの提供を主力としてきたArmも、自社のデータセンター向けCPU「AGI CPU」を投入し、競争に加わった。
ArmもAI需要の拡大を見据える。同社によると、単一の空冷ラックで最大64CPU、約8700コアの構成を可能にするという。x86ラックと比べてワット当たり性能は2倍で、同じ設置スペースと電力で2倍の性能を実現できると説明した。電力制約の大きいデータセンター事業者にとって、訴求力の高い選択肢になるとみている。
Alibabaが公開した「XuanTie C950」も、AIエージェント対応を前面に打ち出す。データセンターに設置し、AIモデルを実行する推論処理に最適化した。
Alibabaは、GPUがAIモデル学習に不可欠である一方、CPUはエージェントが多段階のタスクを実行する際に重要な役割を担うと説明している。
XuanTie C950は、ArmではなくRISC-Vアーキテクチャをベースに開発した。RISC-Vは無償で利用できるオープンな命令セットアーキテクチャで、Armのライセンス費用を抑える代替手段として注目されている。AlibabaはT-Headのチップ部門を通じてAIチップ開発を強化しており、最近ではAIチップ「Zhenyu 810E」も投入した。