AI基本法は、AIの健全な活用を促す一方で、危険な利用の防止を重視する。写真=Shutterstock

韓国で「AI基本法」が1月22日に施行されたことを受け、通信大手3社がAIガバナンスの再構築を急いでいる。サービス約款やユーザーインターフェースの見直しにとどまらず、組織体制や社内ルールを含む全社的な管理体制の整備に乗り出した。

AI基本法は、高影響AIと生成AIに関する透明性義務を定めた。AIサービスを手がける企業にとって対応負担は増しており、AI企業化を進める通信各社も、法令順守とリスク管理の両面から体制整備を進めている。

◆全社ガバナンス整備を加速、倫理原則も明確化

SK Telecomは、AI基本法の施行に合わせて全社的なAIガバナンス体制を強化した。施行日の1月22日には社内キャンペーン「Good AI」を開始し、AI基本法の主要内容やプライバシー順守の要点を整理して社員に共有した。2025年9月に開設した「AIガバナンスポータル」の運用も高度化している。

同ポータルは、AIサービスのリスクと機会の分析に活用する仕組みだ。開発者が新たなAIプロジェクトを始める際に登録すると、システムが自動的に質問項目を提示し、顧客データの利用有無や医療・金融分野での利用、ディープフェイク生成の可能性などを確認する。回答内容に応じてリスク等級を付与し、等級別のチェックリストを生成する仕組みで、評価上の高リスクAIほど確認項目が増える。

SK Telecomは2025年12月、個人情報保護最高責任者(CPO)がAIガバナンスを統括する体制も整えた。チャ・ホボムCPOは「責任ある信頼できるAIの開発と活用に向け、全社の力を結集する」とし、「安全なAIを通じて顧客により良い価値を提供する」とコメントした。

KTは独自のAI倫理原則「ASTRI(アストリ)」を策定し、AIの企画、開発、運用、活用の全工程に適用している。原則は、責任性、持続可能性、透明性、信頼性、包摂性(Inclusivity)の5つで構成する。技術面では、国内外のAIリスク管理の枠組みを検討したうえで、独自のAI安全性基準も整備した。

さらにKTは2025年9月、AIモデルの有害な応答をリアルタイムで遮断する「AIガードレール(SafetyGuard)」をHugging Faceのプラットフォームで公開した。信頼できるAIを通じて、顧客が安心してAI転換を進められる環境づくりを目指す。KT関係者は「責任あるAI技術報告書も発刊し、AIの開発から運用までを対象としたリスク管理の枠組みと、実環境に適用可能な評価体系、実装戦略を提示した」と説明した。

LG Uplusは、最高技術責任者、情報セキュリティセンター、法務室などの関連部門が参加するAIリスク管理体制を運用している。AIサービスの企画、開発、運用の各段階で法令順守を徹底できるよう、体系的な管理を進めている。全社員が関連法令を理解し順守できるよう、社内教育も強化した。LG Uplus関係者は「AI基本法の施行により、顧客の信頼を基盤に責任ある活用を進めることが一段と重要になった」と強調した。

◆規制対応を超え、焦点は「信頼競争」に

業界では、AI基本法の施行は単なる規制対応にとどまらず、通信各社の信頼競争を左右する分岐点になるとの見方が出ている。AI企業化を加速するなか、より多くのリスクや不確実性を管理する取り組みが欠かせないためだ。

通信各社はすでに、AI相談、レコメンド、コンテンツ生成など多様なAIサービスを展開している。顧客接点が広がるほど、誤作動やバイアス、個人情報侵害といったリスクも大きくなる。数千万人規模の加入者基盤を持つ通信会社には公共性と社会的責任も求められ、AIサービスの事前点検や内部統制の水準が、そのまま企業への信頼に直結する構図になっている。

とりわけ、2025年にハッキング事故を経験した後にAI関連の論争まで起きれば、企業イメージへの打撃は避けにくい。業界では、法的基準を上回る社内規範と管理システムの確立が不可欠だとの声が上がっている。

業界関係者は「法令順守は出発点にすぎない」としたうえで、「AI活用の範囲が広がるほど、リスク管理と透明性の確保そのものが企業ブランドになる」と述べた。

キーワード

#AI #AI基本法 #AIガバナンス #リスク管理 #SK Telecom #KT #LG Uplus
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.