Claude Codeに高度なコードレビュー機能が登場。深いコードレビューに最適化し、人間が見逃しがちなバグまで検出
Anthropicは、同社のAIコーディングエージェントであるClaude Codeに高度なコードレビュー機能をリサーチプレビューとして搭載したことを明らかにしました。

AIエージェントにより多数のコードが短時間に生成できるようになってくると、そのコードに問題がないかを確認するコードレビューの負担が増します。すると、コードレビューが新たなボトルネックとなって開発スピードが上がらなくなという新たな問題が登場してきます。
今回Anthropicが明らかにしたClaude Codeのコードレビュー機能は、このボトルネックを解消するためにコードレビューもAIエージェントに支援してもらい、より効率的かつ正確に行えるようにするものです。
複数のAIエージェントが並行してレビューを実行
Claude Codeのコードレビュー機能は、プルリクエストが発行されると複数のAIエージェントがコードのレビューを開始します。
エージェント群は並行してバグを探し、検証を行うことで偽陽性の検出を防止し、そしてバグの深刻度によってランク付けを行い、レビューの報告を行います。
レビューを行うエージェント群は、コードの規模によってスケールするとされており、大きく複雑な変更が行われるコードに対してはより多くのAIエージェントが割り当てられ、深い分析が行われる一方で、些細な変更のコードに関しては簡単なチェックで済まされます。
人間には見逃されていたバグも発見
Anthropic社内ではすでに数カ月にわたってClaude Codeのコードレビュー機能が使われており、1000行以上の大規模なコード変更の84%でAIエージェントによる発見があったとされています。また誤った発見は1%未満だったとのこと。
あるケースでは、簡単に承認されてしまうような一行程度のコード変更で認証に関する重大なバグがあり、AIエージェントによって発見されたとのこと。これは人間のレビュアーには見逃されていたとのことです。
1回のレビューあたりだいたい15ドルから25ドル
Claude Codeのコードレビュー機能は深い分析によるコードレビューに最適化されており、Anthropicの社内利用は1回にかかる時間が平均20分。
また1回のコードレビューにかかるコストはコードのサイズや複雑さに依存するものの、おおむね15ドルから25ドル程度とされています。
あわせて読みたい
マイクロソフトが「.NET Skills」公開。AIエージェントの.NET開発能力を拡張
≪前の記事
Claude CoworkがMicrosoft 365 Copilotに採用。「Copilot Cowork」としてリサーチプレビュー公開
