LangChain: asynchrone Subagenten bringen Fire-and-Steer-Paradigma für Hunderte paralleler KI-Agenten
Warum es wichtig ist
LangChain hat ein neues asynchrones Subagenten-Modell veröffentlicht, das einem Supervisor-Agenten ermöglicht, Hunderte paralleler Subagenten-Instanzen ohne Blockierung zu starten. Das Fire-and-Steer-Paradigma erlaubt das Ändern von Anweisungen an Subagenten während der Ausführung durch die Tools start_async_task, check_async_task und update_async_task, und läuft auf der LangSmith-Plattform oder selbstgehosteter Infrastruktur.
LangChain veröffentlichte am 16. April 2026 ein neues asynchrones Subagenten-Modell, das grundlegend verändert, wie KI-Agenten ihre Arbeit koordinieren. Anstatt des traditionellen sequenziellen Ansatzes, bei dem ein Supervisor-Agent wartet, bis jeder Subagent fertig ist, führt das neue Modell asynchrone Ausführung und die Möglichkeit zur Intervention in Echtzeit ein.
Wie funktioniert Fire-and-Steer?
Das Paradigma stützt sich auf fünf Schlüsselwerkzeuge: start_async_task zum Starten eines Subagenten, check_async_task zur Statusüberprüfung, update_async_task zum Ändern von Anweisungen, cancel_async_task zum Abbruch und list_async_tasks zur Anzeige aller aktiven Aufgaben.
Die Schlüsselinnovation ist der Fire-and-Steer-Ansatz: Der Supervisor-Agent startet einen Subagenten, setzt seine Arbeit fort, und kann zurückkommen und die Anweisungen eines noch laufenden Subagenten ändern. Das ist grundlegend anders als das Fire-and-Forget-Modell, weil der Supervisor die Kontrolle behält.
Warum ist das für agentische Systeme wichtig?
Sequenzielle Agentensysteme haben eine inhärente Einschränkung: Die Gesamtausführungszeit ist die Summe der Zeit für alle Teilschritte. Das Async-Modell ermöglicht Parallelisierung auf Hunderte bis Tausende von Subagenten-Instanzen und verkürzt damit die Gesamtzeit für komplexe Aufgaben drastisch.
Das System läuft auf der LangSmith-Plattform oder selbstgehosteter Infrastruktur über das Agent Protocol, was es sowohl für Cloud- als auch für On-Premise-Implementierungen zugänglich macht. LangChain positioniert dies als Grundlage für die nächste Generation von Unternehmens-Agentensystemen, in denen ein einzelner Orchestrator-Agent eine Flotte spezialisierter Mitarbeiter verwaltet.
Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.
Verwandte Nachrichten
Anthropic: Memory für Managed Agents in öffentlicher Beta — KI-Agenten, die Kontext zwischen Sitzungen behalten
GitHub: Cloud-Agent-Sitzungen jetzt direkt aus Issues und Projektansichten verfügbar
ArXiv SWE-chat — ein Datensatz realer Entwicklerinteraktionen mit KI-Coding-Agenten in der Produktion