写真=Shutterstock

NVIDIAが、生成AIの応答処理を担う推論向けの新型AIチップを投入する見通しだ。米Wall Street Journal(WSJ)が27日(現地時間)、事情に詳しい関係者の話として報じた。

新型チップは、3月に開く同社の開発者会議「GTC」で発表される予定。関係者によると、NVIDIAが事実上買収したとされるAIチップ新興企業Groqの技術を活用するという。

AIを巡る競争が激しさを増す中、推論コンピューティングはテック業界の主戦場となっている。WSJは、GoogleやAmazonがNVIDIAに対抗するAIチップを投入しているほか、AIコーディングの普及を背景に、AI関連処理をより効率的にこなす推論向けチップの需要が拡大していると伝えた。

報道によると、OpenAIはNVIDIAの新型推論チップを大規模に活用する方針だという。OpenAIはここ数カ月、NVIDIA製の代替候補となる高効率チップの調達を進めており、先月にはAIチップ新興企業Cerebrasとも取引を結んだ。

NVIDIAはこれまで、自社GPUが学習と推論の両分野で優位にあると強調してきた。それでも推論専用チップの投入に踏み切るのは、コスト効率を重視した推論チップの需要拡大を見据えた動きとみられる。

NVIDIAの代替を掲げる各社は、高性能が求められる学習用チップよりも、コスト面の優位性を打ち出しやすい推論市場に注力してきた。NVIDIAの今回の動きが、AIチップ業界の勢力図にどのような影響を与えるかが注目される。

WSJによると、NVIDIAの新型推論チップに取り入れられるGroqの技術は、LPU(language processing unit)をベースとしている。NVIDIAの主力GPUと異なり、HBMを使わない点が特徴だ。GroqのLPUは、チップのシリコン上に直接組み込んだSRAM(Static Random Access Memory)を採用し、高速処理を狙う。SRAMは、GPUに搭載されるHBMと比べて最大100倍高速との評価もある。

キーワード

#NVIDIA #AI #推論 #推論チップ #GTC #Groq #GPU #LPU #SRAM #HBM #OpenAI
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.