【バルセロナ】SK Telecomは3月4日、スペイン・バルセロナで開催中のMWC 2026で、FANESSIAとCXL(Compute Express Link)ベースの次世代AIデータセンター技術を共同開発すると発表した。CPU、GPU、メモリの接続をサーバ内部からラック単位へ拡張し、AI処理性能の向上とコスト最適化を目指す。
両社は同日、共同開発に向けた業務協約(MOU)を締結した。AIモデルの高度化に伴ってメモリ需要が急増する中、従来のサーバ中心の構成を見直し、データセンター全体の効率を引き上げる狙いがある。
FANESSIAは、CXL分野の技術を手掛ける韓国のスタートアップだ。ファブリックリンクスイッチやリンクコントローラーなど、AIデータセンターの構築に必要なリンク半導体を開発している。
CXLは、CPUやGPU、メモリを高速・低遅延で接続するインターコネクト規格。サーバごとに固定されていたリソースを柔軟に拡張・共有しやすくなるのが特徴だ。
従来のAIデータセンターでは、CPU、GPU、メモリがサーバ単位で固定されているため、メモリが不足した場合でもGPUを追加せざるを得ないケースがあり、構築・運用コストの増加につながっていた。今回の協業では、CXLを活用してこうした非効率を改め、不要なハードウェア増設を抑えながらAI処理効率を高める。
具体的には、CPU、GPU、メモリの接続範囲をサーバ内部からラック単位まで広げ、各リソースを柔軟に組み合わせられるアーキテクチャを構築する。SK Telecomは商用環境を前提とした設計を担い、FANESSIAは保有するリンク半導体技術を基に接続構成の拡張を進める。
両社は実際のAIモデルを稼働させ、GPUとメモリの利用率や遅延時間などを検証した上で、年内に次世代AIデータセンターのアーキテクチャを公開する計画だ。その後は大規模AIデータセンター環境で実証を進め、商用化を目指す。
チョン・ソックン SK Telecom AI CIC長は「AIデータセンターの競争力は、もはやGPU単体の性能だけでは決まらない。メモリとデータフローを含めたシステム全体の最適化が重要だ」と述べた。その上で、「データ転送とメモリ供給が演算性能に追いつかない『メモリウォール(Memory Wall)』のボトルネックを緩和し、性能と経済性を同時に高めたい」と語った。
チョン・ミョンス FANESSIA代表は「次世代AIインフラでは、個別装置ではなく、多様なリンク半導体の構成が性能を左右する」と説明。「グローバル市場が注目する高効率AIデータセンターの標準モデルを提示していく」と述べた。