AnthropicがClaude Codeに新機能「Code Review」を導入した。複数のAIがプルリクエストを精査し、バグ候補の発見や誤検出の絞り込み、重要度の順位付けまでを行う。コード生成の高速化が進むなか、開発現場で新たなボトルネックとなっていたレビュー負荷の軽減を図る。
Anthropicは3月9日、AIコーディングツール「Claude Code」に新機能「Code Review」を追加すると発表した。プルリクエスト(PR)ごとに複数のAIエージェントを動かし、バグの発見、誤検知絞り込み、重要度判定を並列で実行する仕組み。TeamとEnterprise向けのリサーチプレビューとして提供する。
また、スピードよりも徹底的な検証を重視して設計されており、似たような機能を持つClaude Code GitHub Actionsよりも詳細な検証を行うため時間はかかり、費用は高額となる。レビューはトークン使用量に基づいて課金される。通常は平均15~25ドルで、プルリクエストのサイズと複雑さに応じて変化する。管理者はダッシュボードや月間支出上限、リポジトリ単位のレビュー機能のオン/ ...
Anthropic launched Code Review in Claude Code, a multi-agent system that automatically analyzes AI-generated code, flags ...
Anthropic Code Review Tool: Anthropic has launched Code Review in Claude Code, an AI tool that checks code for bugs before changes merge. It focuses on logic errors, scales with PR size, and provides ...
NECは2026年2月25日、ソフトウェア開発向けコードレビュー「Metabob(メタボブ)」を同年1月から運用していると発表した。AIエージェント開発チームによる実証では、人手による目視レビュー・手動修正と比べて工数を66%削減し、コーディングAI ...
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する