写真=Reve AI

AI開発大手が、セキュリティ分野への展開を加速している。大規模言語モデル(LLM)市場をけん引するOpenAIとAnthropicはこのところ、開発者向けの安全機能を相次いで打ち出した。生成AIの活用が広がるなか、こうした動きがセキュリティ市場や業界構図にどのような変化をもたらすのか、関心が高まっている。

Anthropicは2月末、AIコーディングツール「Claude Code」が生成したコードをスキャンし、脆弱性の検出や修正案の提示を行う「Claude Code Security」を投入した。さらに、AIが生成したコードの確認を自動化する「コードレビュー」機能も公開した。

コードレビュー機能はClaude Codeのプラットフォームに統合される。大規模なコードベースで生じる不具合やセキュリティ上の弱点を、開発の早い段階で洗い出すことを支援する。

Anthropicは性能面の実績も示している。同社は最新AIモデル「Claude Opus 4.6」を用い、Webブラウザ「Firefox」のバグを20分で見つけたと説明した。Mozillaによると、1月に2週間実施したテストでは、通常であれば世界全体で2カ月かけて報告される件数を上回る高リスクのFirefoxバグを検出したという。Anthropicがこの2週間で発見したバグは100件超で、うち14件は高リスクに分類された。

OpenAIも、セキュリティ関連の投資を広げている。OpenAIは6日、AIベースのアプリケーションセキュリティエージェント「Codex Security」を公開した。

同社によると、Codex Securityはコードリポジトリから脆弱性を発見し、検証したうえで修正案まで提示する。あわせてOpenAIは、AIセキュリティに強みを持つスタートアップPromptfooを買収すると発表した。

Promptfooは2024年設立で、LLMを保護する技術を開発してきた。OpenAIは今回の買収を通じて、AIエージェントプラットフォーム「OpenAI Frontier」にPromptfooの技術を統合する計画だ。

こうした流れは、AI大手2社にとどまらない。関連企業や制度面でも、セキュリティ強化に向けた動きが広がっている。

LG Uplusは、スペイン・バルセロナで開かれたMWC26でFortinetと業務提携(MOU)を締結した。セキュリティサービスの競争力強化が狙いで、両社はクラウド環境に最適化したSASE(Secure Access Service Edge)などで協業を本格化する。

エッジデバイス向けセキュリティ企業のSecurity Platformは、NDAA準拠の非中国製ドローン製品群を手がけるThe Peachと、耐量子暗号(PQC)を適用したセキュリティ強化型ドローンを共同開発する。IAM企業のNetandは、Kubernetes向けアクセス制御ソリューション「HIWARE for K8S」を公開した。

Fasooは、米サンフランシスコで開催されるサイバーセキュリティ展示会「RSAC 2026 Conference(RSAC)」に参加し、AIベースのデータセキュリティ製品に加え、プライベートLLMやAI-Readyデータ管理、AXコンサルティングなどを披露する予定だ。

統合セキュリティ企業のLogpressoは、北朝鮮のIT労働者が偽の身分で海外のリモートIT職に就く行動を分析したレポート「北朝鮮IT人材の偽装就業OSINT分析」を公表した。

脅威起点の第三者リスク管理(TPRM)を手がけるSecurityScorecardは、韓国支社を設立した。

資金調達の動きも目立つ。AIサイバーセキュリティのスタートアップKai Cyber Inc.は、1億2500万ドル(約188億円)を調達したのに続き、AIエージェントベースのセキュリティプラットフォームも投入した。GoogleにMandiantを54億ドル(約8100億円)で売却したケビン・マンディア氏は、新たなAIベースのサイバーセキュリティスタートアップ「Armadine」を立ち上げ、投資を呼び込んだ。

サイバーセキュリティスタートアップのCyrakeも、シードラウンドで4500万ドル(約68億円)を調達した。企業の自社インフラ内で稼働するセキュリティプラットフォームを提供する。

制度面では、個人情報保護委員会と科学技術情報通信部が「情報保護および個人情報保護認証制度の実効性強化策」を準備している。認証義務の対象拡大や認証基準の厳格化に加え、予備審査の新設、技術審査と現場実証型審査の導入など審査方式の見直しを検討中だ。情報漏えい防止に向けた認証後の管理強化や、審査機関の監督強化、審査員の専門性向上による審査品質の改善も盛り込む方針としている。

一方で、AIを悪用した攻撃も高度化している。レッドチーム系セキュリティスタートアップCodeWolの研究チームは、自社のAIエージェントを使ってMcKinseyの社内AIプラットフォームに2時間で侵入し、チャットボット全体に対する読み書き権限を確保したと明らかにした。

AIエージェントを使った脆弱性報告が、オープンソースプロジェクトのメンテナーに大量に送られ、負担が増しているとの指摘もある。報告の多くは具体的な根拠に乏しく、追加の質問にも答えられない水準だとされる。

AIエージェントの拡散により、セキュリティ企業がAIの悪用事例を検知し、対処することが難しくなっているとの見方も出ている。ディープフェイク検知企業Pindropの最高経営責任者(CEO)、ビジェイ・バラスブラマニヤン氏は、「エージェントにアクセス権を与えるかどうかという二者択一の発想は終わった」と指摘。「エージェントが人間や組織に代わって身元を主張し、独立して行動するようになるなか、今後はより連続的な尺度で判断する必要がある」と述べた。

キーワード

#AI #LLM #AIセキュリティ #OpenAI #Anthropic #Claude Code #Codex Security #Promptfoo
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.