LangChain: asynchrone Subagenten bringen Fire-and-Steer-Paradigma für Hunderte paralleler KI-Agenten
Warum es wichtig ist
LangChain hat ein neues asynchrones Subagenten-Modell veröffentlicht, das einem Supervisor-Agenten ermöglicht, Hunderte paralleler Subagenten-Instanzen ohne Blockierung zu starten. Das Fire-and-Steer-Paradigma erlaubt das Ändern von Anweisungen an Subagenten während der Ausführung durch die Tools start_async_task, check_async_task und update_async_task, und läuft auf der LangSmith-Plattform oder selbstgehosteter Infrastruktur.
LangChain veröffentlichte am 16. April 2026 ein neues asynchrones Subagenten-Modell, das grundlegend verändert, wie KI-Agenten ihre Arbeit koordinieren. Anstatt des traditionellen sequenziellen Ansatzes, bei dem ein Supervisor-Agent wartet, bis jeder Subagent fertig ist, führt das neue Modell asynchrone Ausführung und die Möglichkeit zur Intervention in Echtzeit ein.
Wie funktioniert Fire-and-Steer?
Das Paradigma stützt sich auf fünf Schlüsselwerkzeuge: start_async_task zum Starten eines Subagenten, check_async_task zur Statusüberprüfung, update_async_task zum Ändern von Anweisungen, cancel_async_task zum Abbruch und list_async_tasks zur Anzeige aller aktiven Aufgaben.
Die Schlüsselinnovation ist der Fire-and-Steer-Ansatz: Der Supervisor-Agent startet einen Subagenten, setzt seine Arbeit fort, und kann zurückkommen und die Anweisungen eines noch laufenden Subagenten ändern. Das ist grundlegend anders als das Fire-and-Forget-Modell, weil der Supervisor die Kontrolle behält.
Warum ist das für agentische Systeme wichtig?
Sequenzielle Agentensysteme haben eine inhärente Einschränkung: Die Gesamtausführungszeit ist die Summe der Zeit für alle Teilschritte. Das Async-Modell ermöglicht Parallelisierung auf Hunderte bis Tausende von Subagenten-Instanzen und verkürzt damit die Gesamtzeit für komplexe Aufgaben drastisch.
Das System läuft auf der LangSmith-Plattform oder selbstgehosteter Infrastruktur über das Agent Protocol, was es sowohl für Cloud- als auch für On-Premise-Implementierungen zugänglich macht. LangChain positioniert dies als Grundlage für die nächste Generation von Unternehmens-Agentensystemen, in denen ein einzelner Orchestrator-Agent eine Flotte spezialisierter Mitarbeiter verwaltet.
Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.
Verwandte Nachrichten
arXiv:2604.24697: SciCrafter zeigt, dass GPT-5.2, Gemini 3 Pro und Claude Opus 4.5 bei ~26 % im Minecraft-Discovery-to-Application-Test plateauieren
AWS veröffentlicht Leitfaden zum Aufbau von Strands Agents mit SageMaker-KI-Modellen und MLflow-Observability: SageMakerAIModel-Provider, Autolog-Tracing und A/B-Variantentests
OpenAI veröffentlicht Symphony: Open-Source-Spezifikation für die Orchestrierung von Codex-Agenten, die Issue-Tracker in „Always-On”-Ingenieurlösungen verwandelt