NVIDIAはGTC 2026で、次世代ラックスケール基盤「Vera Rubin」、推論ラック「Groq 3 LPX」、フィジカルAI向けデータ基盤などを発表した。今回の発表の柱は、AI計算コストの低下、AIエージェントを支えるソフトウェア基盤の整備、そして製造やモビリティ、医療といった実世界へのAI展開の加速にある。
NVIDIAは、トークン当たりコストを10分の1に抑えたとする「Vera Rubin」や、推論処理量を従来比35倍に高めたとする「Groq 3 LPX」を前面に打ち出した。あわせて、フィジカルAI市場を100兆ドル(約1500兆円)規模と位置付け、半導体からソフトウェア、産業用途までを含む新たな市場機会を示した。
◆計算コスト低下からAIエージェント、物理世界へ
NVIDIAは、ラックスケールの次世代プラットフォーム「Vera Rubin」を大々的に公開した。チップ7種とラック5種を統合し、1台のAIスーパーコンピュータとして構成する次世代インフラで、NVIDIAによると、Blackwell比で4分の1のGPU数で大規模MoEモデルを学習できるという。
同社は、トークン当たりコストを10分の1、ワット当たり推論性能を最大10倍に高めたとしている。競争軸がGPU単体の性能から、ラック全体の統合設計とシステム最適化へ移りつつあることを印象付けた。
あわせて披露した「Vera CPU」も注目を集めた。自社設計のOlympusコアを88基搭載し、LPDDR5Xベースで最大1.2TB/sの帯域幅を確保。汎用CPUと比べて帯域幅は2倍、消費電力は半減したとしている。
NVIDIAによると、Alibaba、ByteDance、Meta、CoreWeaveなどが導入を進めている。ジェンスン・フアンCEOは次期アーキテクチャ「Feynman」にも言及し、Rosa CPU、LP40 LPU、BlueField-5を含むロードマップを示した。
基盤インフラの拡大も進む。NVIDIAは、クラウドパートナーが世界のAIファクトリーに配備したGPUが累計100万基を超えたと説明した。総AI処理能力は1.7ギガワット超で、前年GTC時点の40万基、550メガワットから大きく伸びたという。
具体例として、Microsoft Azureが「Vera Rubin NVL72」を稼働させた初のハイパースケールクラウドになったとした。
サプライチェーンでは、Samsung ElectronicsとSK hynixの存在感も目立った。Samsung Electronicsによると、フアンCEOはGTC会場でSamsungのHBM4ウエハーに「AMAZING HBM4」と直筆で記した。
Samsung Electronicsは、HBM4、SOCAMM2、SSD PM1763など、「Vera Rubin」で使われるメモリ・ストレージを一括供給できる唯一の企業だと強調した。GTCではHBM4Eの実物チップも初公開し、ピン当たり16Gbps、帯域幅4.0TB/sを目標に掲げた。
SK hynixも、チェ・テウォン会長とクァク・ノジョンCEOが会場入りし、HBM4、HBM3E、SOCAMM2などを展示した。
◆「Groq 3 LPX」で推論コスト低下、ソフトウェア基盤も拡充
2つ目の変化は、推論コストの急低下がもたらす新たな経済性だ。その中核として示されたのが「Groq 3 LPX」である。
Groq 3 LPXは、GPUとLPU(言語処理装置)を物理的に結合した推論加速ラックだ。NVIDIAによると、1兆パラメータモデルで毎秒500トークン、100万トークン当たり45ドル(約6750円)を実現し、処理量は従来比35倍に達するという。
ソフトウェア面では、AIファクトリー向け分散OS「Dynamo 1.0」も披露した。NVIDIAは、Blackwell GPUの推論性能を最大7倍に引き上げたとしている。「OpenClaw」と「NemoClaw」は、AIエージェントのオーケストレーション向けフレームワークとして投入した。
NVIDIAによると、OpenClawはGitHubで10万スターを獲得し、公開初週のアクセスは200万人に達した。
企業での導入も広がる。NVIDIAのブリーフィング資料では、Salesforceは1万8000社の顧客で活用が進み、CrowdStrikeは週40時間の業務削減、Ciscoは推論効率2~3倍の改善といった成果を示した。
推論基盤はデータセンターの外側にも広がっている。NVIDIAは「DGX Station GB300」も公開し、748GBのコヒーレントメモリと最大20ペタフロップスのFP4性能により、1兆パラメータモデルをデスクトップで動かせるとした。
さらに、AT&T、T-Mobile、Comcast、Spectrumなどの主要通信事業者が、NVIDIA基盤を活用した「AIグリッド」を構築中だと明らかにした。分散配置したネットワークデータセンター約10万カ所と100ギガワット超の予備電力を生かし、利用者や機器、データに近い場所で推論を実行する構想だという。
Samsung Foundryの4ナノプロセスがGroq LPUの生産を担う点も注目材料だ。フアンCEOはSamsung Foundryの4ナノウエハーに「Groq Super FAST」と直筆で記し、推論加速の供給網でもSamsungの役割が改めて浮き彫りになった。
◆手術室、工場、道路へ フィジカルAIの実装拡大
3つ目の焦点は、AIの適用先がデジタル空間から現実の現場へ広がる点だ。NVIDIAはフィジカルAI市場を、IT産業(約2兆ドル)の50倍に当たる100兆ドル(約1500兆円)規模と位置付けた。
その基盤として打ち出したのが、フィジカルAI向けデータファクトリー「Blueprint」だ。CosmosワールドモデルとOsmoオーケストレーターをベースに、データ生成、シミュレーション、評価、配布までのパイプラインを統合する。4月中にGitHubで公開する予定としている。
適用領域は製造、モビリティ、医療へと広がる。NVIDIAによると、Hyundai Motor Groupは「Drive Hyperion」を基盤に、レベル2以上の自動運転とMotionalとのレベル4ロボタクシー協業を拡大する。
ヘルスケア分野では、Open-H(手術映像データセット776時間)、Cosmos-H(合成手術データ生成)、GR00T-H(手術ロボット動作モデル)など、医療特化のフィジカルAI基盤を公開した。CMR SurgicalやJohnson & Johnson MedTechが導入を進めるという。
産業分野では、HD HyundaiがOmniverseベースの産業用デジタルツインを展開する。Samsung Electronics、SK hynix、MediaTekはEDAソフトウェアにNVIDIAの高速化技術を適用し、DRAMやフラッシュの生産効率向上につなげている。設計、製造、医療までの一連の工程をCUDA-Xエコシステム上に取り込む構図が鮮明になった。
GTC 2026でNVIDIAが示したのは、計算コストの低下でAIエージェントの経済性を高め、その先に物理世界での実装を広げる戦略だ。Samsung ElectronicsやSK hynixなどは、メモリ、ファウンドリ、自動運転関連で重要なパートナーとして存在感を示した一方、プラットフォーム依存の深まりという課題も浮かび上がった。