写真=Shutterstock

Amazon Web Services(AWS)が、AI半導体スタートアップのCerebrasと複数年の提携を結び、同社製チップをデータセンターに導入する。米The Wall Street Journal(WSJ)が13日(現地時間)に報じた。

AWSは、Cerebrasのチップ「Wafer Scale Engine」を自社のAI半導体「Trainium」と組み合わせ、推論サービスを提供する計画だ。推論とは、AIモデルが入力に基づいて回答を生成する処理を指す。

Cerebrasによると、同社チップは推論の中核となる「デコード」処理で、NVIDIAのGPUに比べ最大25倍の速度を実現できるという。AWSとCerebrasは今回の提携を通じ、高速な推論サービスを高価格帯で展開する構えだ。

Cerebrasは1月、OpenAIとも100億ドル超(約1兆5000億円)の契約を結び、注目を集めた。OpenAIはCerebrasのチップを使い、最大750メガワット規模の計算能力を整備する計画だ。Cerebrasは2月に10億ドル(約1500億円)の追加資金を確保し、企業価値は230億ドル(約3兆4500億円)規模に達した。

一方、NVIDIAは昨年12月、半導体スタートアップのGrokと200億ドル(約3兆円)のライセンス契約を締結した。来週には、Grokの技術を活用した推論特化型の処理システムを公開する予定という。

Cerebrasのアンドリュー・フェルドマン最高経営責任者(CEO)は、「AIを、より頻繁に、より難しい問題の解決に活用する動きが広がっている」とした上で、「世界最大級のクラウド基盤でCerebras-Trainiumソリューションを展開できるようになった。多くの顧客に接点を持つ機会になる」と述べた。

キーワード

#AWS #Cerebras #AI #推論 #半導体 #Trainium #NVIDIA #OpenAI
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.