先に結論
今回の主語は「どの AI が一番賢いか」ではありません。
レビュー指摘を次回以降に学習して、同じミスを減らせるか です。
- Cursor Bugbot Learned Rules: PR 上の反応や human review を学習して、レビュー自体を自己改善する
- Claude Code Review: 今回の差分レビュー品質を上げる
- Codex Security: セキュリティ観点の triage を減らす
- TestSprite: 実際に動かして UI / E2E 回帰を拾う
なので選び方はこうです。
- 同じレビュー指摘が何度も繰り返される → Cursor Bugbot Learned Rules
- まず PR レビューの質を厚くしたい → Claude Code Review
- 脆弱性レビューのノイズを減らしたい → Codex Security
- レビューより実行確認が先に痛い → TestSprite
重要なのは、Bugbot Learned Rules は「もう 1 つの review bot」ではないことです。正しくは、レビュー運用を学習させる memory layer に近いです。
なぜ今この比較が重要か
2026-04-08 に Cursor は Bugbot Learned Rules と Bugbot MCP Support を公開しました。公式 changelog では、Bugbot が pull request のフィードバックからリアルタイムに self-improve し、MCP servers から追加コンテキストを取ってレビューできるようになったと説明されています。
これで AI コードレビューの比較軸は一段変わりました。
従来は、
- 差分レビューを厚くする
- セキュリティを深掘る
- UI 回帰を自動確認する
の 3 つが中心でした。
でも learned rules が入ると、もう 1 層増えます。
- レビューで得た学びを、次回以降のレビューにどう残すか
ここがないと、毎回 review bot がそこそこ賢くても、チームとしては同じ会話を繰り返しがちです。
既存の Claude Code auto-fix vs GitHub Copilot coding agent vs Codex は「PR の最後の詰まり」を主語にしています。Claude Code Review vs Codex Security vs TestSprite は「品質担保レイヤーの役割分担」を整理しています。今回の論点はそのさらに後ろ、つまり レビュー運用が自己改善するか です。
比較表
| 比較軸 | Cursor Bugbot Learned Rules | Claude Code Review | Codex Security | TestSprite |
|---|---|---|---|---|
| 主戦場 | レビュー運用の継続学習 | PR差分レビュー | セキュリティ検査と検証 | UI / E2E / 回帰テスト |
| 学習方法 | PR 反応、返信、人間レビューから candidate rules を生成し昇格/無効化 | 明示的なレビュー観点に沿った差分評価 | 脅威モデルと検証で findings を絞る | テスト実行結果から不具合を検知 |
| 人手フィードバック反映 | 非常に強い。リアルタイム学習と @cursor remember がある | 中。人間レビュー運用には乗るが learned rules が主機能ではない | 中。検証と修正提案は強いが、PR 反応をそのまま rules 化する主語ではない | 低〜中。失敗ケース学習より実行結果の把握が主役 |
| MCP 等の追加コンテキスト | あり。Bugbot に MCP tools を追加可能 | 限定的。今回の主語ではない | 限定的。主役は security workflow | ありうるが主にテスト実行文脈 |
| 監査性 | ルール、適用範囲、analytics を追いやすい | PRレビューとして追いやすい | findings / validation / patch proposal を追いやすい | テスト結果として追いやすい |
| 何を減らすか | 同じ指摘の再発、チーム固有ルールの取りこぼし | 実装レビュー漏れ | security triage のノイズ | 出荷前の UI / 導線破綻 |
| 向く組織 | レビュー知見を蓄積したい成長チーム | 差分レビュー負荷が高い組織 | AppSec 要件が強い組織 | フロント回帰が痛い組織 |
| 最初の1本として勧める場面 | 既にレビューAIがあり、次は再発防止を進めたい | まず差分レビューを厚くしたい | まずセキュリティを詰めたい | まず UI / E2E を守りたい |
Cursor Bugbot Learned Rules の本質は何か
Cursor の公式説明では、Bugbot は次のシグナルから learned rules を作ります。
- Bugbot コメントへのリアクション
- Bugbot コメントへの返信
- 人間レビューアーのコメント
これを candidate rules に変換し、 incoming PR で評価し続け、良いシグナルが溜まったものを active に昇格し、役に立たなくなったものは disable します。さらに dashboard から編集や削除もできます。
ここで大事なのは、これは単なる「設定が増えた」話ではないことです。
レビューのたびに発生していた暗黙知を、repository rules に変換して残す仕組み です。
たとえば実務では、次のような会話が何度も起きます。
- この repo では backend 変更にテスト必須
- このコンポーネント配下では accessibility 観点を優先
- その warning はうちではノイズだから不要
- 逆にこのパターンは毎回事故るから強く止めたい
従来は、これを人間が覚えるか、静的ルールを手で足すしかありませんでした。Bugbot Learned Rules は、その中間を埋めています。
MCP Support が効く理由
Cursor は同日に Bugbot MCP Support も追加しました。Teams / Enterprise では Bugbot に MCP tools を渡せるので、レビュー時に追加コンテキストを見に行けます。
この組み合わせが強いです。
- Learned Rules で「何を重視するか」を学ぶ
- MCP Support で「何を見に行けるか」を増やす
つまり Bugbot は、PR diff だけを見て一般論の指摘をする bot から、そのチームの文脈と道具に寄せて学習する review layer に近づきます。
ここが、単純な static review rule と違うところです。
他の 3 つと何が違うのか
Claude Code Review は「今回の差分を読む」
Claude Code Review vs Codex Security vs TestSprite でも整理した通り、Claude Code Review の価値は 差分の意味を読み、人間レビューを厚くすること にあります。
強いのは、
- この変更で設計が崩れていないか
- 見落としがないか
- レビュー速度を落とさず質を保てるか
です。
ただし今回の主語である フィードバックから rules を自動昇格して次回以降へ残す ところは、Cursor Bugbot の方が前面に出ています。
Codex Security は「本当に危険かを絞る」
Codex Security は learned rules というより、repo 固有の脅威モデルを前提に、高シグナルな security findings を出すこと が主戦場です。
だから比較の論点が少し違います。
- Bugbot Learned Rules は レビュー運用の再発防止
- Codex Security は security triage の精度向上
両方とも文脈理解は重要ですが、主語は別です。セキュリティ事故コストが高いチームなら Codex Security を先に入れるべきですし、一般的なレビュー指摘の再発が痛いなら Bugbot Learned Rules の方が直撃します。
TestSprite は「動くかどうか」を見る
TestSprite は learned rules と競合しません。役割が違います。
TestSprite が止めるのは、
- UI 崩れ
- 導線破綻
- E2E failure
- 実行結果ベースの regression
です。
つまり Bugbot Learned Rules が優れていても、実際に動かない問題 は別途テストレイヤーが必要です。
どんなチームなら Bugbot Learned Rules が刺さるか
1. 人間レビューの指摘が毎回似ているチーム
同じ種類の指摘が何度も出ているなら、レビュー品質の問題というより 学習の欠如 です。
この場合、Cursor Bugbot Learned Rules の価値はかなり大きいです。
- レビューのたびに同じ説明をしなくてよくなる
- チーム固有ルールを Bugbot 側へ寄せられる
- 暗黙知を個人依存のままにしにくい
2. AI coding は進んだが review memory がないチーム
AI coding tool を入れると、実装速度は上がります。でもその次に起きるのは、レビュー側が追いつかないことです。
このとき最初に Cursor vs GitHub Copilot vs Claude Code のような本体比較を見て導入し、その後 Claude Code auto-fix vs GitHub Copilot coding agent vs Codex のような PR 運用比較へ進む人が多いです。さらにその先で効いてくるのが、レビューで得た知見をどこに残すか です。
3. static ルールだけでは運用しきれないチーム
手書きルールは大事ですが、増えるほどメンテが重くなります。
Bugbot Learned Rules は、
- まず候補ルールとして生成
- シグナルが溜まったら昇格
- ノイズ化したら無効化
という流れがあるので、いきなり固定ルール化するより運用が柔らかい のが利点です。
逆に、まだ Bugbot Learned Rules が早いケース
1. まだ差分レビュー自体が弱い
レビューAIをまだ入れていない、または PR の質が低すぎる段階なら、先に必要なのは learned rules ではなく 差分レビューそのもの です。
この場合は Claude Code Review 系のレイヤーを先に検討した方が自然です。
2. 事故の主因がセキュリティか UI 回帰
- security incident が痛い → Codex Security
- UI / E2E 崩れが痛い → TestSprite
この状態で Bugbot Learned Rules を先に入れても、主因には当たりません。
3. チームのフィードバックがまだ不安定
Learned rules は便利ですが、レビュー文化が固まっていないチームでは ノイズ学習 のリスクもあります。
公式にも active / disabled の管理、UI からの編集、analytics が用意されています。つまり Cursor 自身も「完全放置」ではなく、人間が rule quality を監督する前提 で設計しています。
迷ったときの決め方
最短の判断基準はこれです。
Cursor Bugbot Learned Rules を選ぶべきチーム
- 同じレビュー指摘が何度も出る
- 人間レビューの暗黙知を残したい
- repository rules を手作業だけで育てるのがつらい
- Cursor / Bugbot をすでに評価対象に入れている
Claude Code Review を選ぶべきチーム
- まず差分レビューの質を上げたい
- AI が出す差分量に人間が追いつかない
- いま困っているのは再発防止よりレビュー速度
Codex Security を選ぶべきチーム
- セキュリティ triage の負荷が高い
- 脅威モデルや検証を伴う深い安全確認が必要
- 一般レビューより security review がボトルネック
TestSprite を選ぶべきチーム
- UI や導線の regression が痛い
- PR review は通るのに動かない事故が多い
- QA / E2E を自動化したい
最終結論
2026-04-08 の Cursor 更新で、AI コードレビューは「レビューしてくれるか」だけでなく、レビューから学ぶか まで比較すべき段階に入りました。
なので結論はこうです。
PR レビューで同じ指摘が繰り返され、チーム固有の判断基準を bot 側へ残したいなら Cursor Bugbot Learned Rules が最有力です。差分レビューの厚みが先なら Claude Code Review、セキュリティ検証が先なら Codex Security、実行確認が先なら TestSprite を選ぶべきです。
つまり Bugbot Learned Rules は、全チームに必要な万能機能ではありません。でも レビュー知見の再発防止 が課題になっているチームには、かなり刺さります。
参考リンク
- Cursor Changelog: Bugbot Learned Rules and MCP Support
- Cursor Blog: Bugbot now self-improves with learned rules
- Cursor Docs: Bugbot / learned rules / MCP support
- Cursor vs GitHub Copilot vs Claude Code
- Claude Code auto-fix vs GitHub Copilot coding agent vs Codex
- Claude Code Review vs Codex Security vs TestSprite