Naver本社(写真=Naver)

Team Naverは1月8日、NVIDIAの次世代GPU「Blackwell B200」を4000基備えたAIコンピューティングクラスターの構築を完了したと発表した。72B(720億)パラメータ規模のモデル学習では、A100ベースの既存主力基盤に比べ、学習期間を約18カ月から約1.5カ月に短縮できるとしている。

同社は今回のインフラ整備により、世界水準の計算資源を確保したと説明した。独自ファウンデーションモデルの高度化に加え、AI技術を各種サービスや産業分野に展開するための基盤になるとしている。

Team Naverによると、同社は2019年にNVIDIAのスーパーコンピューティング基盤「SuperPod」を商用化した。以降、高性能GPUクラスターの設計・運用に関する実証経験を蓄積してきたという。

今回構築した「B200 4Kクラスター」は、TOP500の上位クラスのスーパーコンピュータに匹敵する計算規模を持つとしている。

社内シミュレーションでは、72Bパラメータ規模のモデル学習において、従来のA100ベースの主力インフラ(2048基)では約18カ月を要していたのに対し、「B200 4Kクラスター」では約1.5カ月まで短縮できるとの結果が得られた。

学習効率が12倍超に高まることで、実験回数や反復学習を増やし、モデルの完成度を高められるという。技術環境の変化への対応を速める開発・運用体制の整備にもつながるとしている。

同社は今後、このインフラを基盤に独自ファウンデーションモデルの高度化を加速する方針だ。テキストに加え、画像、動画、音声を同時に処理するOmniモデルの学習を大規模に拡張し、性能を世界水準へ高めたうえで、各種サービスや産業現場に段階的に適用していく考えを示した。

キーワード

#Team Naver #NVIDIA #Blackwell B200 #AI #GPUクラスター #SuperPod #ファウンデーションモデル #Omni
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.