SK hynixは1月6日、米ラスベガスで開催される「CES 2026」(現地時間1月6〜9日)で、次世代HBM製品「HBM4 16段48GB」を初披露すると発表した。会場のベネシアン・エキスポに顧客向けブースを設け、AI向けメモリやNAND製品、AIシステムのデモを公開する。今年はSKグループの共同展示館は設けず、顧客向け展示に絞る。
展示の目玉は「HBM4 16段48GB」だ。同社は、業界最高速の11.7Gbpsを実現した「HBM4 12段36GB」の後継製品と位置付ける。
あわせて「HBM3E 12段36GB」も展示する。同製品を搭載したグローバル顧客の最新AIサーバ向けGPUモジュールも披露し、AIシステムでの活用像を示す。
HBM以外では、AIサーバ向けの低消費電力メモリモジュール「SOCAMM2」など、AI用途を見据えた汎用メモリ製品群を紹介する。オンデバイスAI向けには、従来品に比べてデータ処理速度と電力効率を高めた「LPDDR6」を公開する。
NAND分野では、AIデータセンター整備の拡大を背景に需要が伸びている大容量eSSD向けとして、「321層 2Tb QLC」を展示する。現行で最大級の集積度を実現し、前世代のQLC製品に比べて電力効率と性能を高めたとしている。
会場には、AIシステム向けメモリソリューションがどのように連携し、AIエコシステムを構成するかを示す「AIシステム・デモゾーン」も設ける。
このゾーンでは、特定のAIチップやシステム要件に合わせて設計するカスタムHBM「cHBM」、PIM半導体ベースの低コスト・高効率な生成AI向けアクセラレータカード「AiMX」、メモリ上で直接演算を行う「CuD(Compute-using-DRAM)」、CXLメモリに演算機能を統合した「CMM-Ax」などを展示する。データを自律的に認識・分析・処理する「CSD」も紹介し、関連デモを実施する。
cHBMについては、内部構造を見える化した大型展示物も用意する。AI市場の競争軸が単純な性能から、推論効率とコスト最適化へ移るなか、GPUやASICベースのAIチップが担ってきた一部の演算・制御機能をHBM内部に統合する新たな設計方式を示すとしている。
SK hynixのキム・ジュソンAIインフラ社長(CMO)は「AIがけん引する技術革新が一段と加速するなか、顧客の技術要件も急速に高度化している」とコメントした。その上で「差別化したメモリソリューションで顧客ニーズに応えると同時に、顧客との緊密な協業を基盤にAIエコシステムの発展へ向けた新たな価値を創出していく」と述べた。