NordVPNは1月28日、世界データ・プライバシーの日に合わせ、韓国におけるAI利用とプライバシー保護リスクに関する調査結果を公表した。業務でAIを利用する際の留意点を十分に理解していない人は92%に達し、AIを悪用した詐欺への不安も広がっていることが分かった。
2025年に実施されたNational Privacy Test(NPT)のデータを同社が分析したところ、韓国人の92%が、業務でAIを使う際に必要なプライバシー保護上の注意点を十分に理解していなかった。
ChatGPTやCopilotに代表される生成AIは、業務効率を高める手段として急速に普及している。一方で、個人情報や業務データを不用意に入力・共有するリスクが高まっており、AIサービスが入力データをどのように保存・利用するのかについての理解も十分ではないという。
こうしたリスクは職場にとどまらない。同調査では、韓国人の45%が、ディープフェイクや音声複製などAI技術を使った詐欺を正確に見分けるのは難しいと回答した。
NordVPNは、AI時代のプライバシーリスクを抑えるには、技術そのものだけでなく、利用者の判断力と基本的なセキュリティ原則の徹底が重要だと強調した。
同社は、業務で生成AIを活用する際や、AIを悪用した詐欺から身を守るための基本対策として、次の6項目を挙げた。社内機密や顧客情報を入力しないこと、AIとのやり取りは記録・保存される可能性があると認識すること、組織のAI利用ポリシーを事前に確認すること、不審な金銭要求に警戒すること、AI生成の音声や映像を無条件に信じないこと、セキュリティソフトを適切に利用し最新の状態を保つこと――の6点だ。
最高技術責任者(CTO)のマリウス・ブリエディス氏は、「AIツールは同僚との会話と違い、記録・分析され、将来のモデル学習に利用される可能性がある」と説明した。そのうえで、「従業員が顧客情報や社内戦略、個人情報を無意識のうちにAIへ入力すれば、本人が気付かないままセキュリティ上の弱点を生むおそれがある」と述べた。