
GitHub Copilot CLI の auto モデル選択が GA。対象は全 Copilot プラン。4 月 17 日付の GitHub Changelog に掲載、同日から有効です。
結論から先に書きます。auto を使うと、GPT-5.4 / GPT-5.3-Codex / Sonnet 4.6 / Haiku 4.5 といった複数モデルにプランとポリシーに沿って自動ルーティングされ、全有料プランで premium request の消費が 10% 割引になる、という話。
GitHub の説明は 3 点だけです。
要するに、ユーザー側は auto を指定するだけで、裏で「このリクエストはどのモデルで処理するのが一番効率的か」を判定してもらえる。CLI のコマンドプロンプトに戻ると、使用モデルが明示されるので、何が走ったのかは後追いできる設計になっています。
切替の自由度も残されていて、auto と特定モデルの指定はいつでも切り替え可能。管理者側のポリシー設定(利用可能モデルの制限)は auto も遵守するので、ガバナンス側から見ても抜け穴になる設計にはしていない、という立て付けです。
ここがポイントで、auto を使うと全有料プランで premium request の消費が割引になります。数字で押さえると:
つまり、1x multiplier のモデルを auto が選んだ場合は 0.9 premium request で計算される。1 リクエストあたり 10% 安い、という話です。10,000 リクエスト回したら、1,000 リクエスト分の premium 枠が残る計算になります。
逆に言えば、現時点では 1x を超える multiplier のモデルは auto のルーティング対象外。モデルを直接指定すれば従来どおりに使えるが、auto の割引には入らない、という線引きです。
ざっくり、ユーザーへの効果は 2 つ。
Copilot Business / Enterprise 側からすると、auto はモデル指定ポリシーを尊重するので、ガバナンス維持のまま 10% OFF を享受できる。大規模組織でコスト管理をしている人にとっては、こっちの効きのほうが大きいかもしれません。
勝ち筋はある。要するに「モデル選択の試行錯誤を auto 側が代行して、その代わりに割引する」というバンドル構造です。
開発者個人視点では、--model オプションを毎回書くか、auto に統一するかの判断が一度だけ必要。Haiku 4.5 まで選択肢に入る以上、軽いタスク(コミットメッセージ生成、簡単なリファクタ提案)は auto のほうが安く済む局面が増えるはずです。
一方で、特定モデルに揃えて成果物を安定させたい使い方——たとえば Codex を固定で使うエージェントパイプライン——では、auto に任せると出力の揺れが読みにくくなる。auto はあくまで「料金最適化寄りの便利機能」と捉えるのが正しいバランスと見えます。
続報で見ておきたいのは、auto のルーティング基準がどこまで見える化されるか、そして割引率が今後も維持されるのかどうかです。
GitHub Changelog — GitHub Copilot CLI now supports Copilot auto model selection
GitHub Docs — Copilot auto model selection
GitHub Docs — Copilot premium requests and model multipliers