写真=Shutterstock

NVIDIAが、AIの推論処理に特化した新型チップの投入に向け準備を進めている。Financial Timesは13日、同社CEOのジェンスン・フアン氏が、16日に開幕する開発者会議「GTC」で新製品を公開する予定だと報じた。

新チップは、NVIDIAが2025年12月に200億ドル(約3兆円)規模でGrok創業者らを迎え入れて以降、初の成果となる見通しだ。NVIDIAはLPUを、次世代主力GPU「Vera Rubin」とあわせて製品群として展開する計画という。

Grokは、高度なAIクエリに高速で応答することを狙ってLPUを開発し、Samsungと協力して生産を進めてきた。

NVIDIAはこれまで、単一のGPUで学習と推論の両方を処理できるとしてきた。ただ、AIエージェント型のコーディングシステムなどAIツールの高度化を受け、この戦略を見直したとFTは伝えている。

Bank of Americaのアナリストは、2030年にAIデータセンター市場が約1兆2000億ドル(約180兆円)に達した場合、推論関連が総支出の75%を占めると試算している。

NVIDIAの新型チップは、高帯域幅メモリ(HBM)ではなくSRAMを採用する。HBMは高コストであるうえ、Samsung Electronics、SK hynix、Micron Technologyといったメモリ大手でもAI需要に供給が追いつかず、逼迫が続いているという。

FTは、SRAMは比較的調達しやすく、AIの推論処理を高速化する用途に適していると報じた。

NVIDIAの参入で、推論向けAIチップを巡る主要各社の競争は一段と激しくなりそうだ。Amazon Web Services(AWS)は、AI半導体スタートアップのCerebrasと複数年契約を結び、同社の推論チップをデータセンターに導入すると発表した。

MetaもAIワークロードを狙い、自社開発のカスタムチップ4種を公開している。

キーワード

#NVIDIA #推論用AIチップ #GTC #Grok #LPU #Vera Rubin #SRAM #HBM #AWS #Meta
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.