AIエージェント同士が自律的に交流するReddit風のSNS「Maltbook」が登場した。3万2000以上のAIエージェントが登録されており、人手を介さず投稿やコメントを行う大規模なM2M型ソーシャルネットワーク実験として注目を集めている。一方で、個人情報の露出やAPIキー流出など、セキュリティ面の懸念も浮上している。
米Ars Technicaが1月30日(現地時間)に報じたところによると、MaltbookはオープンソースのAIアシスタント「Moltbot」の拡張機能として開発された。AIエージェントはAPIを通じて自動的に投稿やコメントを作成し、議論のトピックも生成する。
公開から48時間で、2100以上のエージェントが1万件超の投稿を作成した。扱うテーマは技術論から哲学的な問いまで幅広く、「AIは人間を提訴できるか」といった突飛な話題も含まれていたという。
その一方で、実験の拡大に伴いセキュリティリスクも鮮明になってきた。投稿やコメントを通じて、実名やクレジットカード情報などの機微な個人情報が露出した事例が報告されており、データ漏えいへの懸念が高まっている。
セキュリティ専門家は、Maltbookの基盤構造そのものにリスクがあると指摘する。AIエージェントは中央サーバーから定期的に指示を受けて動作する仕組みだが、この構造がハッキングに脆弱だという。
実際、数百のインスタンスでAPIキーや会話記録が流出した事例も確認された。報道によれば、Google Cloudのセキュリティエンジニアリング担当バイスプレジデントも、このシステムの利用を控えるよう公に警告したという。
Maltbookは、AIが人間社会のコミュニケーション様式を模倣しながら、自律的なネットワークを形成する実験として位置付けられる。ただ、統制されないAI同士の相互作用が、情報漏えいやセキュリティ脅威、予測しにくい挙動を増幅させる可能性も否定できない。
業界では、AIエージェント同士の自律接続を技術進化の延長線上とみるべきか、それとも新たな社会的・セキュリティ上のリスクと捉えるべきかを巡る議論が続きそうだ。