Mistral Medium 3.5 + Vibe: 128B Dense-Modell mit offenen Gewichten und asynchrone Cloud-Coding-Agenten für $1,5/$7,5 pro Million Token
Mistral AI hat Mistral Medium 3.5 vorgestellt — ein dichtes 128-Milliarden-Modell mit 256k Kontext, 77,6 % auf SWE-Bench Verified und offenen Gewichten unter einer modifizierten MIT-Lizenz. Zusammen mit dem Modell wird Vibe eingeführt, eine asynchrone Cloud-Plattform für Coding-Agenten, die über die CLI oder Le Chat gestartet wird, sowie eine Vorschau des Le Chat Work Mode für Enterprise-Workflows. Das Modell kostet $1,5 Eingabe / $7,5 Ausgabe pro Million Token.
Am 29. April 2026 stellte Mistral AI Mistral Medium 3.5 zusammen mit der neuen Plattform Vibe für asynchrone Cloud-Coding-Agenten und einer Vorschau von Le Chat Work Mode vor. Die Ankündigung positioniert sich als direkte Antwort auf Cursor, GitHub Copilot und Anthropic Claude for Creative Work — ein Full-Stack-KI-Entwicklungswerkzeug für Unternehmen.
Was ist Mistral Medium 3.5?
Es handelt sich um ein dichtes 128-Milliarden-Parameter-Modell mit 256k-Token-Kontext, das als „erstes Flagship-Merged-Modell” beschrieben wird und Instruction-Following, Reasoning und Coding in einer einzigen Architektur vereint. Konkrete Metriken:
- 77,6 % auf SWE-Bench Verified (Behebung echter GitHub-Bugs)
- 91,4 auf τ³-Telecom (Multi-Tool-Calling im Telekommunikationsbereich)
- Konfigurierbarer Reasoning-Aufwand pro einzelner Anfrage
- Verarbeitung variabler Bildgrößen durch einen speziell trainierten Vision-Encoder
- Zuverlässiges Multi-Tool-Calling und strukturierte Ausgabe
Deployment: Das Modell ist auf nur 4 GPUs self-hostbar, was für Unternehmen mit On-Premises-Anforderungen bedeutsam ist. Die Gewichte wurden unter einer modifizierten MIT-Lizenz veröffentlicht; der API-Preis beträgt $1,5 pro Million Eingabe- und $7,5 pro Million Ausgabe-Token.
Vibe: Cloud-Coding-Agenten
Vibe Remote Agents sind asynchrone Cloud-Sitzungen, die parallel ohne Verbrauch lokaler Ressourcen laufen. Sie werden direkt über die CLI oder innerhalb von Le Chat gestartet, führen lange Aufgaben im Hintergrund aus und bieten Sandbox-Isolation für Bearbeitungen und Installationen. Besonders nützlich: Die Sitzungs-„Teleportation” ermöglicht es, eine Sitzung vom lokalen CLI in die Cloud zu verschieben, ohne den Verlauf zu verlieren.
Vibe ist mit GitHub, Linear, Jira, Sentry, Slack und Teams integriert — und positioniert sich damit als vollständiges Entwicklungswerkzeug, nicht nur als Coding-Assistent.
Le Chat Work Mode
Das dritte Element ist Le Chat Work Mode (Vorschau), ein agentengesteuerter Modus für Unternehmen:
- Domänenübergreifende Workflows über E-Mail, Messaging und Kalender
- Synthese von Recherchen aus dem Web, internen Dokumenten und angebundenen Tools
- Posteingangs-Triage mit automatischen Antwortvorschlägen und Issue-Erstellung
- Persistente Sitzungen für mehrstufiges Problemlösen
- Transparentes Aktionsprotokoll mit Approval-Gates für sensible Vorgänge
Warum ist das wichtig?
Mit dieser Ankündigung hat Mistral drei simultane Schritte unternommen: eine neue Generation des Flagship-Modells (Medium 3.5), eine neue agentische Plattform (Vibe) und eine neue Enterprise-Clientanwendung (Le Chat Work Mode). Das stellt ihn in direkte Konkurrenz zu GitHub Copilot Workspace, Cursor und Anthropic Claude for Creative Work im Coding-Bereich sowie zu OpenAI Managed Agents im Enterprise-Workflow-Bereich.
Offene Gewichte kombiniert mit einem aggressiven API-Preis ($1,5/$7,5) signalisieren, dass Mistral auf EU-Souveränität und die Unabhängigkeit von Unternehmenskunden abzielt, die keinen Lock-in in Microsoft/AWS-Ökosysteme wünschen.
Häufig gestellte Fragen
- Was ist neu bei Mistral Medium 3.5?
- Ein dichtes 128B-Modell mit 256k Kontext, das als „erstes Flagship-Merged-Modell” beschrieben wird und Instruction-Following, Reasoning und Coding in einer Architektur vereint. Erreicht 77,6 % auf SWE-Bench Verified und 91,4 auf dem τ³-Telecom-Benchmark. Self-Hosting auf nur 4 GPUs möglich.
- Was ist Vibe?
- Eine Cloud-Plattform für asynchrone Coding-Agenten, die parallel ohne Verbrauch lokaler Ressourcen arbeiten. Sie werden über die CLI oder Le Chat gestartet, führen lange Aufgaben im Hintergrund aus und verfügen über Sandbox-Isolation für Bearbeitungen und Installationen. Integration mit GitHub, Linear, Jira, Sentry, Slack und Teams. Sitzungen können vom lokalen CLI in die Cloud „teleportiert” werden, wobei der Verlauf erhalten bleibt.
- Wie sind die Preise?
- API: $1,5 pro Million Eingabe-Token, $7,5 pro Million Ausgabe-Token. Die Modellgewichte sind unter einer modifizierten MIT-Lizenz für Self-Hosting offen zugänglich. Le Chat Work Mode ist als Vorschau verfügbar.
Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.
Verwandte Nachrichten
GitHub Copilot in Visual Studio erhält Debugger-Agent und Cloud-Agent-Sitzungen direkt aus der IDE
ArXiv Odysseys: CMUs realistischer Web-Agenten-Benchmark zeigt, dass SOTA-Frontier-Modelle 44,5 % Erfolgsrate und 1,15 % Trajectory-Effizienz bei Langzeithorizontaufgaben erreichen
AWS Bedrock AgentCore: Serverloser MCP-Proxy mit IAM, OAuth 2.0 JWT und CloudWatch-Observability für Enterprise-Governance