Ravawaveは1月23日、KAISTサイバーセキュリティ研究センターと、ディープフェイクの生成を未然に防ぐ技術を共同開発したと発表した。画像に人の目では識別できない微細ノイズを加え、生成AIによるディープフェイクの作成を妨げる仕組みだ。
同社によると、この技術は従来の事後検知型対策とは異なり、ディープフェイクの生成段階そのものに働きかける先回り型の防御技術という。活用先としては、スマートフォンメーカー、ソーシャルメディアプラットフォーム、クラウドサービス事業者のほか、デジタル安全対策を担う政府・公共機関を想定している。
微細ノイズで保護した画像を生成AIが学習・処理すると、モデル側の処理が大きく乱れ、正常な出力ではなく大きく歪んだ画像や、コンテンツとして利用できない生成結果が生じるという。これにより、ディープフェイク犯罪の抑止につなげるとしている。
Ravawaveは「元画像に、人の目では認識できないレベルの微細ノイズを加える。一般の利用者が見ても違いはほとんど分からない一方、ディープフェイクを生成するAIモデルには深刻な攪乱要因として作用するよう設計した」と説明した。
Ravawaveのキム・ジュニョプ代表は「ディープフェイク犯罪は世界的な社会問題であり、技術的な対応なしに根本的な予防や問題解決は難しい」とコメントした。その上で「グローバルプラットフォームやデバイスメーカーとの協力を通じて、より安全なデジタル環境の実現に貢献したい」と述べた。
著者について