AI開発企業の米Anthropicは3月9日(現地時間)、AIコーディング支援ツール「Claude Code」に、AIがバグを自動で検出する機能「Code Review」を追加したと発表した。開発者が修正したコードの統合を依頼するプルリクエストに対し、自律的にタスクをこなすAIエージェントがレビューする。 Code Review(出典:公式YouTube動画、以下同) 開発者がプルリクエストを作成 ...
AnthropicがClaude Codeに新機能「Code Review」を導入した。複数のAIがプルリクエストを精査し、バグ候補の発見や誤検出の絞り込み、重要度の順位付けまでを行う。コード生成の高速化が進むなか、開発現場で新たなボトルネックとなっていたレビュー負荷の軽減を図る。
Anthropicは2026年3月9日、AIコーディングアシスタントClaude Code用のコードレビュー機能がリサーチプレビュー版として利用可能になったことを発表した。 Introducing Code Review, a new feature for Claude Code. When a PR opens, Claude dispatches a team of agents to hu ...
Anthropicは2026年2月20日、Web版Claude Code上でAIがコードをスキャンして、セキュリティ脆弱性を検出しパッチを提案する新機能 「Claude Code Security」 を限定リサーチプレビュー版として公開した。 Introducing Claude Code Security, now in limited research preview. It scans ...
株式会社 経営参謀のプレスリリース(2026年3月10日 16時50分)【AIエージェント入門】話題の「Claude Code」で業務自動化に挑む。実践型ワークショップ「もくもく会」を4/1(水)に参謀BAR 浜松町で開催 ...
AnthropicはCode Reviewを「スピードではなく深さを重視した設計」と紹介しています。徹底的にレビューする分コストが高くなっていて、一般的には1回当たり15ドル (約2400円)~25ドル (3900円)分のトークンを消費するとのこと。 その高さに目を付けたOpenAIの従業員は「レビュー1件当たり25ドルも払いたくない場合はOpenAIの製品を使ってください」とアピールしています。
一部の結果でアクセス不可の可能性があるため、非表示になっています。
アクセス不可の結果を表示する