Redditは、AIボットの拡散を抑えるため、「人間確認」の仕組みを導入する。対象は全ユーザーではなく、特定の行動パターンなどから自動化が疑われるアカウントに限る。
米TechCrunchが3月25日(現地時間)に報じた。Redditは、アカウントの挙動や技術的な指標を分析してボットの可能性を判定し、確認に失敗した場合はアカウント機能を制限する方針だ。
一方で、AIを使った投稿作成自体を一律に禁じるわけではない。コミュニティごとに独自のルールを設けられるとしている。
認証手段としては、Apple、Google、YubiKeyなど外部サービスやツールの活用を検討している。
また、一部の国では政府発行の身分証明書の提示を求める可能性もある。共同創業者でCEOのスティーブ・ハフマン氏は、「プライバシーを最優先し、アカウントの背後に実在の人がいるかどうかのみを確認する」と説明した。
今回の対応は、ソーシャルプラットフォーム上でAIボットが政治的な影響力の行使や偽情報の拡散、不正な広告クリック操作などに悪用される問題を踏まえたものだ。Cloudflareは、2027年までにボットトラフィックが人間によるトラフィックを上回る可能性があるとの見方を示している。
著者について