GitHub Copilot CLI が自動モデル選択に対応:有料ユーザーはマルチプライヤーが 10% 割引
なぜ重要か
GitHub は 2026 年 4 月 17 日、Copilot CLI ツールの AI 自動モデル選択機能がすべての Copilot プランで一般提供(GA)になったと発表しました。システムは管理者のポリシーに応じて、GPT-5.4、GPT-5.3-Codex、Sonnet 4.6、Haiku 4.5 などのモデルへリクエストを動的にルーティングします。有料ユーザーは Auto モードを使うとモデルのマルチプライヤーが 10% 割引になります——1x マルチプライヤーのモデルは 1 プレミアムリクエストではなく 0.9 として計算されます。
GitHub は 2026 年 4 月 17 日、Changelog にて GitHub Copilot CLI ツールの自動モデル選択(Auto Model Selection) 機能が一般提供(GA) になったと発表しました。この機能はすべての Copilot プランで利用でき、コマンドラインでの作業時に Sonnet・Haiku・GPT モデルをリクエストごとに手動で選ぶ手間をなくすことを目的としています。
何が変わるのか?
これまで Copilot CLI ユーザーは、各リクエストを実行するモデルを明示的に選ぶ必要がありました。新機能では動的ルーティングが導入され、システムがリクエストを分析して利用可能なプールから最適なモデルを自動的に選びます。GitHub は発表で GPT-5.4、GPT-5.3-Codex、Sonnet 4.6、Haiku 4.5 を例として挙げています。具体的なモデルセットはユーザーのサブスクリプションプランと組織管理者のポリシーによって異なります。
使いやすさ向上に加え、Auto モードはレート制限の緩和にも役立ちます——フロンティアモデルが混雑している場合、エラーを返す代わりに別のモデルへリクエストが振り向けられます。透明性も確保されており、Copilot CLI は各リクエストを実行したモデルを明示的に表示します。ユーザーはいつでも Auto モードを抜けて特定のモデルを指定することができます。
なぜこれが重要なのか?
発表の中で最も注目すべき点は課金の仕組みです。GitHub はすべての有料ユーザーに、Auto モード利用時にモデルマルチプライヤーを 10% 割引します。計算式はシンプルで、通常 1x プレミアムリクエスト相当のモデルが Auto モードでは 0.9 プレミアムリクエストとして計算されます。GitHub は、この割引が現時点では 0x から 1x のマルチプライヤーのモデルにのみ適用されると明示しています——ほとんどの Copilot モデルをカバーしていますが、マルチプライヤーの高いトップクラスのフロンティアモデルは対象外です。
自動ルーティングと 10% 割引の組み合わせは、GitHub がモデル選択をシステムに委ねるユーザーを積極的に優遇していることを示しています。Auto ルーティングは GitHub にとって異なるモデル間の負荷分散を向上させ、各パートナー(Anthropic、OpenAI)の推論キャパシティをより効率的に活用できる合理的な戦略です。
今後の展望
この機能はすでにすべての Copilot CLI ユーザーに提供されており、追加の操作は不要です——最新バージョンの CLI ツールを実行するだけで使えます。組織管理者は Auto プールに含まれるモデルを独自にカスタマイズできます。GitHub は 2026 年 4 月を通じて github.com プラットフォーム上のコーディングエージェント(Claude と Codex)にも同様の機能を導入しており、今回の CLI への拡張により Copilot のすべてのインターフェースをカバーする形となりました。
この記事はAIにより一次情報源から生成されました。