写真=Shutterstock

NVIDIAがAI推論に特化した半導体スタートアップGrokを200億ドルで実質買収する動きは、AIチップ市場にとどまらず、HBM(広帯域メモリ)やCoWoS、冷却インフラといったAIデータセンターの供給制約をどう回避するかという観点からも注目を集めている。

こうした見方を示したのが、テクノロジーニュースレターのUncoverAlphaだ。同メディアは最近の報道で、NVIDIAがGrokの買収に動く理由を5つに整理した。挙げたのは、エネルギー制約、HBM不足、CoWoS不足、液体冷却対応の制約、そして競争環境の変化だ。

GrokのLPU(Language Processing Unit)は、NVIDIAの最新Blackwell GPUのように液体冷却を前提としない。UncoverAlphaによると、データセンターでは現在も空冷設備が主流だ。一方、Blackwellを含むNVIDIAの今後の製品は、最大性能を引き出すため液体冷却を前提に設計されるケースが増えるとみられている。クラウド市場には、液体冷却への切り替えが難しい空冷データセンターがなお多く残るという。

UncoverAlphaは、NVIDIAとしてはデータセンター全体の液体冷却移行を望むだろうが、現実には対応の難しさが大きいと指摘する。液体冷却は運用の複雑さを増し、多くの事業者にとって導入負担が重い。このため、液体冷却型データセンターへの依存が強まれば、成長の足かせになりかねないとの見方だ。同メディアは、NVIDIA GPUの代替候補として浮上するAWS Trainiumも空冷対応だと強調した。

買収観測は、HBM調達の観点からも関心を集めている。AI PM(Product Management)関連のニュースレターとポッドキャストを運営するアーカシュ・グプタ氏は、X(旧Twitter)への投稿で、NVIDIAによるGrok買収の背景にはDRAM需給の逼迫に伴うサプライチェーンリスクへの備えがあるとの見方を示した。

NVIDIAのGPUはHBMへの依存度が高い。H100は1基当たり80GBのHBM3を搭載し、B200システムではさらに大容量のメモリが必要になる。グプタ氏は、DRAM価格の上昇はPCメーカーだけの問題ではなく、NVIDIA製GPUの原価や生産能力にも直接影響すると説明した。

Google、AWS、AMDもAIチップの拡充を進めており、HBMの調達競争は強まっている。このためHBM供給はすでにボトルネックになっており、需給は一段と厳しさを増しているという。

その点、GrokのLPUはHBMを必要としない。NVIDIAにとっては、HBM供給に左右されずにAI推論市場でインフラ販売を広げる余地が生まれることになる。

Grokのチップは外部メモリを使わず、SRAMを内蔵する構成を採る。このため旧世代のプロセスノードでも製造できる。UncoverAlphaは、外部メモリを搭載しないため最先端の高密度実装に依存せず、Grokの最新世代LPUはGlobalFoundriesの14nmプロセスで生産されていると説明した。TSMCの最先端ノードに依存せずに高性能チップを製造できる点は、NVIDIAのような企業にとって大きな利点であり、TSMCとCoWoSという別のボトルネックを回避できる可能性があるとしている。

UncoverAlphaはさらに、HBM、電力、液体冷却、CoWoSといった制約が市場を圧迫し、計算資源の深刻な不足を招けば、顧客や競合各社はそれを回避する代替手段を探し始めると指摘した。こうした供給制約の影響を比較的受けにくいGrokは有力な選択肢になり得るため、MetaやMicrosoftなどがGPU以外の道を広げる前に、NVIDIAが先手を打ったとの見方を示している。

キーワード

#NVIDIA #Grok #AI #データセンター #HBM #CoWoS #液体冷却 #空冷 #GPU #TSMC
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.