🤖 24 AI
🟡 🏥 In der Praxis Samstag, 18. April 2026 · 3 Min. Lesezeit

GitHub Copilot CLI erhält automatische Modellauswahl: 10 % Rabatt auf Multiplikatoren für alle zahlenden Nutzer

Redaktionelle Illustration: Terminal mit verzweigenden Pfeilen, die auf verschiedene KI-Modelle im automatischen Routing zeigen

Warum es wichtig ist

GitHub gab am 17. April 2026 bekannt, dass die automatische KI-Modellauswahl im Copilot-CLI-Tool für alle Copilot-Pläne allgemein verfügbar ist. Das System leitet Anfragen dynamisch an Modelle wie GPT-5.4, GPT-5.3-Codex, Sonnet 4.6 und Haiku 4.5 weiter, abhängig von den Administrator-Richtlinien. Zahlende Nutzer erhalten 10 % Rabatt auf den Modell-Multiplikator bei Verwendung des Auto-Modus – ein Modell mit einem 1x-Multiplikator verbraucht anstelle von 1 nur 0,9 Premium-Requests.

GitHub gab am 17. April 2026 im Changelog bekannt, dass die automatische Modellauswahl (auto model selection) für das Tool GitHub Copilot CLI nun allgemein verfügbar (GA) ist. Die Funktion ist jetzt in allen Copilot-Plänen enthalten, mit dem Ziel, die Reibung bei der Arbeit in der Befehlszeile zu reduzieren, sodass Nutzer nicht mehr manuell zwischen Sonnet, Haiku oder GPT-Modellen für jede Anfrage wählen müssen.

Was ändert sich?

Bisher mussten Copilot-CLI-Nutzer explizit auswählen, welches Modell ihre Anfrage ausführen soll. Die neue Funktion führt dynamisches Routing ein – das System analysiert die Anfrage und wählt selbst das am besten geeignete Modell aus dem verfügbaren Pool aus. GitHub nennt in der Ankündigung als Beispiele GPT-5.4, GPT-5.3-Codex, Sonnet 4.6 und Haiku 4.5. Der konkrete Satz an Modellen hängt vom Abonnementplan des Nutzers und den vom Organisationsadministrator festgelegten Richtlinien ab.

Neben der verbesserten Ergonomie hilft der Auto-Modus auch bei der Abmilderung von Rate Limits – wenn eines der Frontier-Modelle ausgelastet ist, wird die Anfrage an ein anderes weitergeleitet, anstatt dass der Nutzer einen Fehler erhält. Die Transparenz bleibt erhalten: Copilot CLI zeigt sichtbar an, welches Modell jede einzelne Anfrage ausgeführt hat, und der Nutzer kann jederzeit aus dem Auto-Modus herauswechseln und explizit ein bestimmtes Modell anfordern.

Warum ist das wichtig?

Der interessanteste Teil der Ankündigung betrifft den Abrechnungsmechanismus. GitHub gewährt allen zahlenden Nutzern einen 10-%-Rabatt auf den Modell-Multiplikator, wenn sie den Auto-Modus verwenden. Die Formel ist einfach: Ein Modell, das normalerweise 1x Premium-Request kostet, wird im Auto-Modus als 0,9 Premium-Requests abgerechnet. GitHub stellt ausdrücklich fest, dass der Rabatt derzeit nur für Modelle mit Multiplikatoren zwischen 0x und 1x gilt – was die meisten Copilot-Modelle abdeckt, aber nicht die teuersten Frontier-Varianten mit höheren Multiplikatoren.

Die Kombination aus automatischem Routing und 10 % Rabatt ist ein Signal, dass GitHub Nutzer aktiv belohnt, die dem System die Entscheidung über die Modellauswahl überlassen. Das ist eine sinnvolle Strategie – automatisches Routing ermöglicht GitHub ein besseres Load Balancing zwischen verschiedenen Modellen und eine bessere Auslastung der Inferenzkapazitäten einzelner Partner (Anthropic, OpenAI).

Was kommt als Nächstes?

Die Funktion ist bereits für alle Copilot-CLI-Nutzer verfügbar und erfordert keine zusätzlichen Maßnahmen – Nutzer müssen lediglich die neueste Version des CLI-Tools ausführen. Organisationsadministratoren können eigene Richtlinien definieren, welche Modelle in den Auto-Pool aufgenommen werden. GitHub hat im April 2026 bereits eine ähnliche Funktion für Coding-Agenten (Claude und Codex) auf der github.com-Plattform eingeführt; die Erweiterung auf die CLI vervollständigt die Abdeckung über alle Copilot-Schnittstellen.

🤖

Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.