Anthropic: Memory für Managed Agents in öffentlicher Beta — KI-Agenten, die Kontext zwischen Sitzungen behalten
Warum es wichtig ist
Anthropic hat Memory für Claude Managed Agents in die öffentliche Beta entlassen. Agenten können nun Nutzerpräferenzen, Projektkonventionen und Kontext zwischen Sitzungen speichern. Beta-Limits umfassen bis zu 1.000 Stores pro Organisation und 100 MB pro Store.
Anthropic hat Memory für Claude Managed Agents am 23. April 2026 in die öffentliche Beta entlassen. Die Funktion ermöglicht Agenten, Nutzerpräferenzen, Projektkonventionen und einen breiteren Kontext zwischen einzelnen Sitzungen zu behalten. Die Beta ist hinter dem Standard-API-Header managed-agents-2026-04-01 verfügbar.
Dies ist eine Fortsetzung der Plattformerweiterung, die am 8. April 2026 begann, als Anthropic Claude Managed Agents lancierte — eine gehostete Infrastruktur zum Betrieb langlebiger Agenten, ohne dass Entwickler selbst Sandboxes, Retry-Logik und Lifecycle-Management verwalten müssen.
Warum ist Memory wichtig?
Klassische KI-Agenten haben eine grundlegende Einschränkung — das Kontextfenster. Obwohl moderne Modelle wie Claude Opus 4.7 (1M) und Gemini 3.1 Millionen-Token-Kontextfenster erreicht haben, ist das noch immer nicht dasselbe wie dauerhaftes Gedächtnis.
Jede neue Sitzung beginnt mit einem „leeren Blatt”. Ein Agent, der in einer vorherigen Sitzung den Coding-Stil des Nutzers, die Projektstruktur oder den API-Schlüssel eines externen Dienstes gelernt hat, muss all das erneut lernen. Das Ergebnis: mehr Token für die Wiederherstellung des Kontexts und ein langsamerer Start in produktive Arbeit.
Memory löst dieses Problem, indem der Agent einen persistenten Speicher erhält, der Sitzungsneustarts überlebt.
Wie funktioniert Memory technisch?
Laut der Dokumentation von Anthropic ist ein Memory-Store im Wesentlichen eine Sammlung von Dokumenten, die als Verzeichnis innerhalb des Sandbox-Containers des Agenten eingehängt wird. Der Agent liest Dateien mit Standardwerkzeugen (Bash, Datei-Tools) und schreibt in diese, wenn er neue Informationen behalten möchte.
Diese Architektur hat zwei praktische Konsequenzen. Erstens — Memory ist transparent. Entwickler und Administratoren können direkt prüfen, was der Agent sich merkt, und bei Bedarf Einträge löschen oder bearbeiten. Zweitens — der Agent entscheidet selbst, was und wann er schreibt, was den Bedarf an zusätzlicher Orchestrierungslogik im Client-Code reduziert.
Was sind konkrete Anwendungsfälle?
Anthropic hebt in der Dokumentation mehrere Szenarien hervor. Nutzerpräferenzen — der Agent merkt sich den bevorzugten Coding-Stil, die Kommentarsprache und Namenskonventionen. Projektkonventionen — der Agent merkt sich die Repository-Struktur, Testverfahren und Deploy-Skripte. Sitzungsübergreifender Kontext — frühere Entscheidungen, offene Fragen, unfertige Aufgaben.
Für Entwicklungsteams bedeutet das, dass der Agent nach einigen Sitzungen mit einem bestimmten Projekt deutlich produktiver arbeitet — er überspringt Einarbeitungsphasen und geht direkt zur Problemlösung über.
Was sind die Beta-Limits?
Anthropic hat in der Beta klare Grenzen gesetzt, die bei der Planung berücksichtigt werden sollten:
- 1.000 Stores pro Organisation — Obergrenze für die Anzahl separater Speicher
- 2.000 Einträge pro Store — wie viele separate Einträge jeder Store enthalten kann
- 100 MB gesamt pro Store — Größenbeschränkung
- 8 Stores pro Sitzung — wie viele verschiedene Memory-Stores ein Agent gleichzeitig einbinden kann
Für die meisten Anwendungsfälle sind diese Limits ausreichend — ein Projekt entspricht typischerweise einem Store, und einzelne Einträge (Präferenzen, Konventionen) überschreiten selten einige KB.
Was bedeutet das für den Wettbewerb?
Mit Memory für Managed Agents positioniert sich Anthropic gegenüber OpenAI Memory (eingeführt 2025) und teilweise gegenüber der Google Gemini Deep Research-Funktionalität. Der entscheidende Unterschied ist, dass Anthropic Memory für agentische Workloads konzipiert wurde — langlebige Task-Pipelines, nicht nur zur Verbesserung der Chat-Erfahrung.
Für Unternehmenskunden ist das ein starkes Signal: Persistentes Agentenwissen wird zu einer Standardkomponente von Produktions-Deployments, nicht zu einem optionalen Luxus.
Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.
Verwandte Nachrichten
GitHub: Cloud-Agent-Sitzungen jetzt direkt aus Issues und Projektansichten verfügbar
ArXiv SWE-chat — ein Datensatz realer Entwicklerinteraktionen mit KI-Coding-Agenten in der Produktion
AWS veröffentlicht Architektur für unternehmensweites KI-Agenten-Gedächtnis mit Bedrock, Neptune und Mem0