チョン・ムギョンCEO(写真=ソク・デゴン記者)

Dinotisiaは3日、企業向けAIストレージ事業に本格参入すると発表した。HBMの容量制約を補うKVキャッシュ再利用技術と専用アクセラレータ半導体を組み合わせた垂直統合型ソリューションで、グローバルAIインフラ市場の開拓を狙う。

チョン・ムギョンCEOは同日の懇談会で、「AIが大容量ストレージ上の生データを直接扱う時代に入った」と述べ、推論に特化したインフラ戦略を示した。従来は人が定型データを手作業で検索していたが、現在はAIが文書や動画など大量の非定型データを意味的な類似度に基づいて探索し、推論に直接活用しているという。

その上で同氏は、今後はデータベースとストレージの境界が薄れ、ストレージの役割も単なる保管先からAI推論を支える実行基盤へと変わるとの見方を示した。

こうした変化を踏まえ、同社はAIエージェントに必要な多層メモリを、ストレージ起点の単一データスタックとして統合する方針を掲げた。企業のAI導入が進みにくい要因の一つとして、AIモデル自体には記憶がなく、同じ作業でも毎回初めから指示し直す必要がある点を挙げた。

対策として示したのが、非定型データを高次元ベクトルに変換して類似度検索に活用する外部知識メモリと、ユーザーとのやり取りを時系列および意味ベースで蓄積する長期記憶ストレージだ。

中でも需要が大きいとみるのが、短期作業メモリに当たるKVキャッシュ層である。AIサービスでセッション数やコンテキスト長が拡大するなか、過去トークン情報を一時保存するKVキャッシュの容量も急増しており、GPUのHBM不足が深刻化していると分析した。

特に、多数のユーザーがGPUを共用するクラウド環境では、このボトルネックがより顕著になる。そこで同社は、リクエストがない間はKVキャッシュをストレージに退避し、必要時に読み戻す「KVキャッシュ再利用」技術を提案した。再計算コストを抑え、プリフィル時の遅延を最小限に抑えられるとしている。

これを支える基盤として、同社はソフトウェアからハードウェアまで含む垂直統合アーキテクチャを構築した。意味ベース検索を担うベクターデータベース「Seahorse」を核に、データ演算をハードウェア側で高速化する専用半導体「VDPU(Vector Data Processing Unit)」を自社設計した。

VDPUは汎用プロセッサと切り分けた構成とすることで、電力効率と検索の安定性を高めたという。チップは昨年12月にテープアウトを完了しており、来年の量産開始を予定する。

併せて、NVIDIAのRubinプラットフォームのインターコネクトおよびメモリサブシステム(ICMS)構造と互換性を持つ高性能NVMeストレージも開発している。プリフィルノードとデコーディングノードの間で推論効率を高めるのが狙いだ。

資金調達も大詰めを迎えている。チョン・ムギョンCEOは「これまでに確保した投資資金は1000億ウォン(約11億円)規模で、3月中に手続きが完了する見込みのため、さらに積み増せるとみている」と説明した。主要投資家はベンチャーキャピタル(VC)だという。

専用チップが量産前の段階にある一方、同社は自社クラウドやAPIサービスなどのソフトウェア事業で、昨年31億5000万ウォン(約3億4600万円)の売上高を計上した。今年は前年比3倍超の成長を目標に掲げる。

主要ターゲットとするのは、社内の生データを活用して特化型AIソリューションを構築したい企業だ。データアクセスを統合したソリューションを提供し、AI時代に企業がデータを資産として能動的に活用できるよう支援する構想を示した。

チョン・ムギョンCEOは「韓国企業はNANDフラッシュベースのSSDハードウェアでは世界最高水準の競争力を持つが、データセンター向けストレージシステムそのもので付加価値を生み、販売する例は多くない」と指摘。その上で、「下半期の初のAIストレージ製品投入を起点に、技術パラダイムの変化を主導したい」と述べた。

キーワード

#Dinotisia #AIストレージ #KVキャッシュ #HBM #GPU #NVMe #ベクターデータベース #Seahorse #VDPU #NVIDIA
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.