Anthropicが、Claude Codeにコードレビューを自動化する新機能を追加した。TechCrunchが9日(現地時間)に報じた。GitHubのプルリクエストを解析し、論理エラーやセキュリティ上の脆弱性を検出して、修正案まで提示する。
新機能はClaude Codeに統合され、大規模なコードベースで不具合や脆弱性を未然に防ぐ用途を想定する。
TechCrunchによると、このコードレビュー機能はエンタープライズ向けで、Uber、Salesforce、Accentureなどの大企業を主な対象としている。
AIの活用でコード作成のスピードは上がる一方、レビュー工程が新たなボトルネックになっている。Anthropicはレビューの自動化を通じて、企業のソフトウェア開発の迅速化を後押しする考えだ。
システムはGitHubと連携し、プルリクエストを自動で解析する。コード内の論理エラーやセキュリティ上の問題を色分けして表示し、赤は致命的なエラー、黄は確認が必要な項目、紫は既存コードとの衝突を示す。開発者がすぐに対応できるよう、具体的な修正案も提示する。
Anthropicは、この機能がコードスタイルよりも機能の安定性を重視し、論理的な不具合の検出を優先すると説明している。複数のAIエージェントが並列で動作してコードベースを多角的に分析し、最後に別のエージェントが結果を取りまとめて優先順位を付ける仕組みだ。セキュリティチェックにも対応し、企業は社内ポリシーに応じて追加の検証ルールを適用できる。
一方で、コードレビュー機能はリソース消費が大きく、コストも高めになる。Anthropicは平均的なレビューコストを15〜25ドル(約2250〜3750円)と見込んでおり、コードの複雑さによって変動する可能性があるとしている。