写真=KT

KTは1月29日、動画配信サービス「ジニTV」にAIエージェントを導入し、検索機能や対話性能を強化したと発表した。ユーザーの発話内容を踏まえて応答を最適化し、複数ターンにわたる会話や個人の嗜好を反映した案内に対応する。

今回の刷新の中核となるのが、「マスターエージェント(Master Agent)」と「サブエージェント(Sub Agent)」で構成するメディアエージェント技術だ。

マスターエージェントは、ジニTVの対話システム全体を統括する役割を担う。ユーザーの発話を分析して文脈を把握し、最適なサブエージェントを選択したうえで、各エージェントの結果を統合して応答を生成する。

サブエージェントは、用途別に役割を分担した専門モジュールとして動作する。KTによると、自然言語をモデルが解釈しやすい形に整えたうえで、思考の流れを設計し、処理を実行する3段階の仕組みを採用した。これにより、不要な推論やハルシネーションを抑え、より正確で自然な対話を実現するという。

これにより、ユーザーはあらすじや断片的な説明だけでもコンテンツを検索できる。例えば「渋滞した高架道路で人が車を降りて踊る映画は?」といった場面描写から、該当する作品名を特定できるとしている。

「学校をテーマにした映画を探して」と尋ねた場合には、学校に関連する題材や小道具を含む作品まで検索対象を広げ、関連情報を提示する。

AIエージェントは、単発の音声命令型操作にとどまらず、複数回のやり取りを前提とした「マルチターン」対話にも対応する。音声認識率は95%以上に改善し、より自然な会話が可能になったとしている。

個人の嗜好を反映する機能も備える。直近の会話内容はSTM(Short-Term Memory)に保存し、長期的に意味のある情報はLTM(Long-Term Memory)として蓄積する仕組みだ。

LTMでは、STMに保存された発話のうち、「こんにちは」のような一時的なあいさつや不正確な内容を除外し、記憶する価値のある情報だけを残す。「最近ドキュメンタリーをよく見る」といった発話から「ドキュメンタリーを好む」といった明示的な事実を抽出し、既存のLTMと照合して情報を精緻化する。

その後、ユーザーのプロフィール情報と行動履歴を分けて管理し、パーソナライズした応答に活用する。

LLMについてはマルチLLM戦略を採用し、質問の意図に応じて最適なモデルを自動で呼び出すことで、対話品質を維持する。ジニTVのAIエージェントでは、Microsoftと連携して導入したAzure OpenAI Serviceのほか、GPT-4oベースの韓国型AIモデル「SOTA K」などを活用する。

KTは今後、マルチLLM連携の拡大とマルチモーダルモデルの確保を継続して進める方針だ。

SOTA KのジニTV向けAIエージェントへの適用は、2025年9月のモデル公開後、B2Cサービスへの初の導入事例となる。KTは、これをKTとMicrosoftの戦略的協業の成果の一つと位置付けている。

SOTA KについてKTは、GPT-4oをベースに、韓国語や韓国の社会・文化的文脈への理解を強化したモデルと説明した。

KT関係者は「今後もジニTVのAIエージェントを高度化し、メディアサービスの枠を超えて、ユーザーの日常により深く入り込む対話型AIプラットフォームへ発展させていく」とコメントした。

キーワード

#KT #ジニTV #AIエージェント #LLM #Azure OpenAI Service #GPT-4o #Microsoft #SOTA K
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.