写真=Shutterstock

AIエージェントの普及を受け、セキュリティ対策の軸が変わり始めている。これまでのように、電話やビデオ通話の相手がAIかどうかを判定して遮断するだけでは不十分となり、今後はそのボットが悪性のものかどうかを見極めることが重要になっている。

Semaforによると、セキュリティ企業はこれまで、電話やビデオ通話でAIの利用を検知した場合、資金移動や情報共有といった要求を自動的に遮断する形で詐欺対策を進めてきた。相手が機械だと判定できれば、一定の対応が可能だったためだ。

だが、個人向けAIエージェントの登場で状況は変わった。こうしたエージェントは、学費の支払い、健康情報の収集、機微情報を含む書類処理などを実際に代行するようになっている。

このため、企業や病院、銀行のセキュリティを担う事業者にとっては、相手がAIかどうかを見分けるだけでは足りなくなった。今後は、ボットが悪性か否かを判別することが対策の中核になるという。

当初は大きな問題なく動作していたエージェントでも、利用者の管理や統制が緩むことで、詐欺に悪用されるケースが出始めている。Semaforは、セキュリティ企業がリアルタイムで脅威に適応せざるを得ない局面に入ったと伝えた。

ディープフェイク検知を手がけるPindropの最高経営責任者(CEO)、ビジェイ・バラースブラマニヤン氏は、「エージェントにアクセス権限を与えるかどうかという、二者択一の判断の時代は終わった」と述べた。その上で、「エージェントは人や機関の代理として身元を名乗ることもあれば、完全に独立して行動することもある。今後は、より連続的な尺度で判断する必要がある」と説明した。

Pindropは現在、正規の利用者、ボット、悪性ボットをどう見分けるかに関するツールを開発している。ただ、具体的な内容については明らかにしていない。

キーワード

#AI #AIエージェント #悪性ボット #サイバーセキュリティ #ディープフェイク #Pindrop
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.