Cisco Systemsの研究・エンジニアリング部門であるCisco Foundation AIは、自律型AIシステムの保護に向けたエージェント型セキュリティツール群を発表した。米SiliconANGLEが2026年1月30日、報じた。
今回の発表は、AIシステムの自律化と相互接続が進み、企業の業務全般で活用が広がっていることを踏まえたもの。Ciscoは、AIベースの環境がクラウド、社内システム、外部データソースをまたいで運用されるようになる中、従来型のセキュリティ手法だけでは対応が難しくなっているとしている。
その一環として、推論モデル「Foundation-sec-8B-Reasoning」を公開した。汎用の大規模言語モデルとは異なり、サイバーセキュリティに特化した多段階の分析機能を備えるという。
同モデルは、脅威モデリング、攻撃経路の分析、インシデント調査などの場面で推論の過程を示し、セキュリティアナリストが結果を検証しやすくする設計とした。
またCiscoは、定型的なクエリ検索にとどまらない「適応型AI検索フレームワーク」も公表した。AIモデルが新たな情報を得るたびに検索戦略を調整でき、脅威インテリジェンス分析やインシデント対応で、より柔軟な運用を可能にするとしている。
さらに、オープンソースの「Peak Threat Hunting Assistant」も提供する。複数のAIエージェントを連携させ、脅威アクターや攻撃手法を分析したうえで、個別最適化した脅威ハンティング計画を自動生成する仕組みだ。
人間が意思決定プロセスに介入できる構成とし、セキュリティチームがモデルやデータへのアクセスを全面的に統制できる点も特徴としている。