図=KAIST提供、マルチアクセラレータLLMサービスプラットフォームの説明図(AI生成画像)

KAISTは1月30日、パク・ジョンセ教授率いる電算学部の「AnyBridge AI」チームが、GPUに偏らず複数のAIアクセラレータを統合してLLMを効率的に提供する次世代AIインフラソフトウェアを開発したと発表した。同技術は、Kakaoが主催した「4大科学技術院×Kakao AI育成プロジェクト」で大賞を受賞した。

同プロジェクトは、KakaoとKAIST、GIST、DGIST、UNISTが共同で進める産学連携プログラム。AI技術を基盤とするプレ創業チームを対象に、技術力と事業性を総合評価して優秀チームを選定した。

AnyBridge AIチームは大賞受賞により、賞金2000万ウォン(約220万円)に加え、最大3500万ウォン相当(約385万円)のKakao Cloudクレジットの支援を受ける。

研究チームは、現在のLLMサービングの多くが高価なGPUインフラに依存しており、サービス規模の拡大に伴って運用コストや消費電力が急増する点に着目した。その要因は特定ハードウェアの性能そのものではなく、多様なAIアクセラレータを効率的に接続・運用するシステムソフトウェア層が不足していることにあると分析した。

これを踏まえ、同チームはアクセラレータの種類を問わず、同一のインターフェースとランタイム環境でLLMを提供できる統合ソフトウェアスタックを開発した。GPU中心に固定化された従来のLLMサービング構造に対し、複数種類のAIアクセラレータを単一システム上で併用できる「マルチアクセラレータLLMサービング・ランタイムソフトウェア」を中核技術として提示し、高い評価を受けた。

KAISTは、この技術によって特定ベンダーや特定ハードウェアへの依存を抑え、ワークロード特性に応じて最適なAIアクセラレータを選択・組み合わせられる柔軟なAIインフラの構築が可能になると説明した。

パク・ジョンセ教授は「今回の受賞は、GPU中心のAIインフラが抱える限界を乗り越えるうえで、多様なAIアクセラレータを統合するシステムソフトウェアの必要性が評価された結果だ」とコメント。「今後は産業パートナーとの連携を通じ、次世代LLMサービングインフラの中核技術へと発展させていく」と述べた。

キーワード

#KAIST #Kakao #LLM #AI #AIアクセラレータ #GPU #Kakao Cloud #LLMサービング
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.