写真=聯合ニュース

金融監督院は1月15日、金融機関のAI活用を巡るガバナンス原則を具体化した「金融分野AIリスク管理フレームワーク(AI RMF)」を策定すると発表した。AIの導入拡大に伴うリスクに対応するため、意思決定機関や専任組織の整備、関連内規の策定、リスク評価・統制手順の導入を促す。

AIリスクは産業や社会全体に加え、金融消費者にも大きな影響を及ぼし得る。AIの誤作動や判断ミスが金融システムの安定を損なう可能性もある一方、金融機関のAIガバナンスやリスク管理体制はなお不十分だという。

金融監督院が2025年4月、金融機関118社を対象に実施した調査では、AI関連の意思決定機関を設置していたのは銀行5社(25%)、保険会社4社(7.5%)、証券会社1社(2.7%)にとどまった。全体の約85%は、AI倫理原則やリスク管理基準などを整備していなかった。

こうした状況を踏まえ、金融監督院は、金融業界が「革新」と「責任」のバランスを取りながらAIを活用できるよう、ガイドライン形式の自主指針を示す方針だ。

指針では、金融機関に対し、AIリスク管理を担う意思決定機関と専任組織を設けるなど、ガバナンス体制の整備を求める。意思決定機関の委員長は、最高経営責任者(CEO)がAI関連の事業計画や戦略、リスクを把握できるよう、定期的に報告することが求められる。

あわせて、AI関連のリスク管理規程や指針などの内規を整備し、詳細な業務マニュアルも策定する。金融・AI関連法規の遵守を前提とし、最終判断の責任は役職員が負うとした。導入から運用までの全工程を管理する標準マニュアルを整え、部門ごとの役割と責任を明確にすることも盛り込む。

リスク管理については、金融機関にリスクベース・アプローチに基づく総合的な評価体系の構築を求める。「金融AIの7大原則」のうち定量的な要素を基準にリスク評価体系を設計し、原則遵守に必要な基本要素を評価項目に反映して、AIサービスごとのリスクを分類する。

また、AI基本法上、融資審査のように個人の権利や義務に影響を与える高影響AIは、等級にかかわらず高リスクサービスに分類する。金融機関はリスク水準に応じて統制・管理を行い、超高リスクAIについては提供の可否を見直すなど、所定のリスク統制手順を履行しなければならない。

金融監督院は、説明会や懇談会を通じて意見を集約したうえで、第1四半期中に最終案を確定し、施行する予定だ。

金融監督院は「模範事例の共有や導入機関の実態点検を通じて、AI RMFのガバナンス、リスク管理、リスク統制の各プロセスが金融機関の内部統制体制に定着するよう支援していく」としている。

キーワード

#AI #AI RMF #リスク管理 #ガバナンス #金融監督院
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.