先に結論
GitHub Copilot Business / Enterprise のモデル承認は、全部開けるか、どれか1つに固定するか の二択で考えないほうがいいです。
管理者として一番事故が少ないのは、次の3段階です。
- 標準承認は GPT-5.3-Codex LTS に置く
- 難しい multi-step task 用に GPT-5.4 を追加許可 する
- 軽量タスクと回転率重視で GPT-5.4 mini を補助的に許可 する
この形なら、
- 社内レビューを通しやすい
- base model の説明がしやすい
- premium request の使い方を設計しやすい
- チームごとの用途差に対応しやすい
からです。
性能だけを見れば GPT-5.4 が強い場面は多いですが、Business / Enterprise の承認フローで最初に効くのは性能より標準運用の作りやすさ です。モデルの性能比較だけ見たい場合は、GPT-5.4 / GPT-5.4 mini / GPT-5.3-Codex LTS 比較 も合わせて見ると判断しやすくなります。
この承認ガイドが必要になった背景
2026年3月の GitHub Copilot では、管理者向けの判断材料が一気に増えました。
- 2026-02-09: GPT-5.3-Codex が GitHub Copilot で一般提供開始
- 2026-03-18: GPT-5.3-Codex LTS が発表され、Copilot Business / Enterprise の base model 方針が更新
- 2026-03-05 / 2026-03-17: GPT-5.4 と GPT-5.4 mini も一般提供され、モデル選択の幅が広がった
特に大きいのは、GitHub が LTS モデルを 12か月提供する と明言し、その第1号として GPT-5.3-Codex を置いたことです。
これは単なる新モデル追加ではなく、enterprise の internal security / safety review を通しやすくするための制度設計 です。つまり、管理者が承認フローを作るときに見るべき軸が「一番賢いモデルはどれか」から「どのモデルなら組織標準にしやすいか」へ少し移りました。
まず押さえるべき3つの事実
1. GPT-5.3-Codex LTS は Copilot Business / Enterprise の基準モデルにしやすい
GitHub は GPT-5.3-Codex を、Copilot Business / Enterprise 向けの最初の LTS モデル として案内しています。公開情報では、2026-02-05 のモデル起点で 12か月利用可能 とされ、2027-02-04 まで使える 前提です。
さらに GitHub は、GPT-5.3-Codex を Business / Enterprise の newest base model として扱う方針も示しました。組織が他モデルをまだ承認していない場合の基準モデルになる、という意味です。
この2点があるだけで、管理者は次を説明しやすくなります。
- 標準モデルは何か
- どのくらいの期間使えるか
- なぜ最初にそれを承認するのか
- 他モデルを追加承認するときの基準は何か
2. GPT-5.4 は標準モデルというより追加承認向き
GPT-5.4 は complex な multi-step task や agentic coding に強い上位モデルです。難しい改修、深い探索、複数ツールをまたぐ作業では有力です。
ただし、承認フローの観点では 最初の標準モデル に据えるより、高難度タスク用の追加承認モデル として設計したほうが整理しやすいです。
理由は単純で、全員常時開放にすると次が曖昧になりやすいからです。
- どこまでを標準利用とみなすか
- premium request をどう管理するか
- 軽量タスクにも上位モデルを使ってしまわないか
- 「高い性能が必要な業務」の定義をどうするか
3. GPT-5.4 mini は安価版ではなく高速運用枠
GPT-5.4 mini は、fastest time to first token や codebase exploration の強さが前面に出ています。発表時点では 0.33x premium request multiplier とされており、回転率重視の運用と相性がいいです。
つまり mini は「高性能モデルの劣化版」というより、軽量作業を速く回すための別ポジション と見るほうが実運用に合います。
管理者向けの推奨承認フロー
フェーズ1: 標準承認を先に決める
最初にやるべきは、「どのモデルを全社標準に置くか」を決めることです。
この段階では GPT-5.3-Codex LTS を標準承認 に置くのが最も自然です。
理由:
- 12か月 LTS がある
- base model 方針が明示されている
- internal review に耐えやすい
- 個人の好みではなく組織標準として説明しやすい
- code survival rate の高さが enterprise 文脈で触れられている
ここで大事なのは、LTS を「保守的だから選ぶ」のではなく、説明責任コストが低いから選ぶ ことです。
フェーズ2: 追加承認の条件を決める
次に、GPT-5.4 と GPT-5.4 mini をどの条件で開けるかを決めます。
GPT-5.4 を追加承認する条件
- agent mode や coding agent で複雑な multi-step task を回す
- 複数ファイル横断の改修や深い探索が多い
- 難しいタスクの成功率を優先したい
- 一部チームに先行開放して効果測定したい
GPT-5.4 mini を追加承認する条件
- 日常の ask / edit / 探索タスクを速く回したい
- response speed を重視したい
- 軽量タスクで premium request を節約したい
- 高性能モデルを常時使う必要はないが、古い標準モデルだけでは遅い
ここでのコツは、追加承認を「性能が高い順」ではなく「用途別」 に分けることです。
フェーズ3: 利用ルールを明文化する
承認しただけで終わると、運用はすぐ崩れます。最低でも次は書いておくべきです。
- 標準モデルは GPT-5.3-Codex LTS
- GPT-5.4 は難タスク用
- GPT-5.4 mini は軽量高速タスク用
- どのチームがどのモデルを主に使うか
- premium request を誰がどの頻度で見るか
- モデル追加申請の基準は何か
このルールがあると、社内問い合わせも減ります。
おすすめの承認パターン
| 組織の状況 | 最初の承認パターン | 理由 |
|---|---|---|
| まず安全に横展開したい | GPT-5.3-Codex LTS のみ標準承認 | base model / LTS を軸に説明しやすい |
| 難タスクもすぐ回したい | GPT-5.3-Codex LTS + GPT-5.4 | 標準と上位モデルの役割分担が明快 |
| 日常の回転率も欲しい | GPT-5.3-Codex LTS + GPT-5.4 mini | コストと速度のバランスを取りやすい |
| 役割分担を完成させたい | GPT-5.3-Codex LTS + GPT-5.4 + GPT-5.4 mini | 標準 / 難タスク / 軽量タスクを分けやすい |
多くの組織では、いきなり全部開放するより LTS を軸にした段階導入 のほうが管理しやすいです。
承認フローでありがちな失敗
1. Pro / Pro+ の感覚で Business / Enterprise を決めてしまう
個人プランでは「自分が好きなモデルを使えればよい」で済みますが、Business / Enterprise では違います。
- 標準モデルの説明責任
- internal review
- 利用ルールの統一
- premium request 管理
が入るため、承認フローの設計が必要です。
2. GPT-5.4 を標準モデルにしてしまう
性能だけ見ると魅力的ですが、標準モデルにすると軽量タスクまで全部上位モデルへ流れやすくなります。まず標準は LTS で固め、GPT-5.4 は用途限定で開けるほうが崩れにくいです。
3. GPT-5.4 mini を単なる廉価版として扱う
mini の価値は、速さと探索回転率です。重い判断を全部 mini に押し込むと不満が出ます。軽量タスク向けとして役割を切るのが基本です。
迷ったときの実務ルール
迷ったら、次の順で決めるとブレにくいです。
- 標準承認は GPT-5.3-Codex LTS
- 難タスク需要が明確なら GPT-5.4 を追加
- 日常の回転率要求が強いなら GPT-5.4 mini を追加
- それぞれの用途を 1 行で社内ルール化する
この4つだけでも、かなり実務で回ります。
まとめ
GitHub Copilot Business / Enterprise のモデル承認は、性能比較だけで決めると運用が壊れやすいです。
管理者としては、まず GPT-5.3-Codex LTS を標準承認 に置き、
- GPT-5.4 を難タスク用
- GPT-5.4 mini を高速軽量タスク用
として追加承認するのが最も現実的です。
要するに、
- 標準運用の軸 は GPT-5.3-Codex LTS
- 高難度タスクの拡張枠 は GPT-5.4
- 高速運用の補助枠 は GPT-5.4 mini
です。
Copilot のモデル性能そのものを比較したい人は、GitHub CopilotのGPT-5.4 / GPT-5.4 mini / GPT-5.3-Codex LTS比較 も先に読んでおくと、承認フローとのつながりが見えやすくなります。