写真=Reve AI

人工知能(AI)の普及でメモリ需要が急増し、供給不足が続く中、データセンター内でサーバー間のメモリ共有を可能にするCXL(Compute Express Link)が再び注目を集めている。米Googleは自社データセンターで導入に着手した。NVIDIAがCXL 3.1対応を計画するほか、Samsung Electronics、SK Telecom、SK hynixなども関連技術の実用化を進めている。

一般的なサーバーでは、各機器が搭載したメモリを個別に使うのが基本だ。近くのサーバーに未使用メモリがあっても活用しにくい。CXLは、同じデータセンター内の別の場所にあるメモリ資源を利用できるようにする技術で、こうした制約の緩和が期待されている。

CXLは公開標準で、策定・管理はCXLコンソーシアムが担う。Samsung Electronics、NVIDIA、Intel、AMDに加え、GoogleやAlibabaなどのクラウド事業者も参加している。

もっとも、CXLは登場から約7年を経ても普及は限定的だった。プロセッサが演算に必要なデータをメモリから読み出す際、レイテンシーが増えやすいことが課題とされてきたためだ。AIワークロードでは、わずかな遅延でもシステム全体の性能低下につながりかねない。

それでも、メモリ供給不足に伴う価格上昇が深刻化し、各社は代替策の検討を急いでいる。こうした中で、CXL関連投資を拡大する動きが出てきた。

米The Informationによると、Googleは自社データセンターでCXL技術の導入を始めた。Google関係者2人の話として報じたもので、同社の動きが他社にも波及する可能性があるとしている。

Googleは、サーバーCPUと大規模な外部メモリプールの間のトラフィックを制御するCXLコントローラーの設置を進めているという。さらに、こうしたメモリプールを自社システムにより深く組み込む案も検討しているとされ、外部メモリへのアクセス高速化が期待されている。

ただ、Googleが実運用に踏み出したとしても、CXLが業界全体で定着したとは言い難い。The Informationは、業界専門家の見方として、大手クラウド事業者が求める水準にはなお届いていないと伝えた。

AMDは2022年、Intelは2023年にCXL対応のサーバーチップを投入したが、実運用での採用は限定的だったという。単独企業主導の技術ではない標準規格ゆえに、普及に時間がかかるとの見方もある。

CXLを本格的に広げるには、サーバー、CPU、メモリ、ネットワーク機器など、データセンターを構成する各種部品が同じ標準に対応する必要がある。短期間で1社が決められる性質のものではなく、大規模コンソーシアムでの調整が必要な分、導入には時間を要しやすいとThe Informationは報じている。

それでも、CXLを巡る動きは広がっている。NVIDIAは年末に投入予定のVera CPUでCXL 3.1をサポートする計画だ。The Informationは、同社の取り組みがCXLを巡る最大級の実運用テストになる可能性があると伝えた。

韓国勢の動きも具体化している。Samsung Electronicsは2024年、オープンソースソリューション企業のRed Hatの認証を受けたCXLインフラを構築した。

SK Telecomは、スペイン・バルセロナで開かれたMWC 2026でPanmnesiaと「CXL(Compute Express Link)基盤の次世代AIデータセンター構造」の共同開発に向けた業務協約(MOU)を締結した。CXL基盤技術を活用し、リソース接続範囲をサーバー内部からラック単位へ広げるとともに、CPU、GPU、メモリを柔軟に組み合わせられる構成への転換を目指す。

SK hynixも昨年、CXL 2.0ベースのDRAMソリューション「CMM(CXL Memory Module)-DDR5」の96GB製品について、顧客認証を完了した。

キーワード

#CXL #Compute Express Link #データセンター #メモリ供給不足 #Google #NVIDIA #Samsung Electronics #SK Telecom #SK hynix #AMD #Intel
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.