AI運用基盤の構築事例を紹介するLG U+のホ・ソルMLOps開発チーム技術責任者(写真=LG U+)。

LG U+は4月10日、Amazon Web Services(AWS)主催の「2026 Modern Agentic Application Day」で、AIモデルを実サービスで安定運用するためのプラットフォーム構築事例を公開した。

同社は、オンプレミス中心だったAI開発環境を、クラウド連携を取り入れた柔軟な構成へ見直した。開発から学習、配布、本番運用までの流れをつなぎ、AI活用の効率化を図ったという。

今回紹介したプラットフォームは、AIモデル開発とサービス運用の間にあった断絶の解消を主眼とする。学習、評価、配布、運用が個別に進み、サービス展開のたびに手作業が繰り返し発生していた従来プロセスを、一連の流れとして統合した点が特徴だ。

LG U+は、AIを一度開発して終わりにするのではなく、常時サービス投入できる「Model Ready」の状態を維持することが重要だと位置付ける。データ収集から学習、評価、配布、運用までを単一のパイプラインでつなぎ、開発担当者と運用担当者が同じ基準・環境でAIを扱えるようにした。

インフラ面では、AWSのマネージドKubernetesサービス「Amazon EKS」を基盤とするハイブリッド構成を採用した。自社保有のオンプレミスGPUインフラをAmazon EKSクラスターのハイブリッドノードとして統合し、クラスター全体を制御するKubernetesのコントロールプレーンはAWSのフルマネージドサービスで運用する。これにより、プラットフォーム管理の負担を抑えたとしている。

GPUリソースの使い方を見直した点も特徴の一つだ。従来のような設備単位の固定割り当てではなく、必要量に応じて柔軟に配分する仕組みを導入した。AIモデルの学習やサービス提供に必要なタイミングで、GPUリソースをより効率的に活用できるようになったという。

同社は「LG U+は、データ収集からモデル開発、配布、運用、GPU運用までを網羅する、AI主導の開発ライフサイクルに基づくエンジニアリングプラットフォームの強化を進めている」と述べた。その上で、「今後もAWSとの技術協力を通じ、AIサービスの品質と運用の安定性を高めていく」とした。

キーワード

#LG U+ #AWS #Amazon EKS #AI #MLOps #クラウド #Kubernetes #GPU
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.