🟡 ⚖️ Regulierung Dienstag, 28. April 2026 · 4 Min. Lesezeit

LangChain und LangSmith zielen auf den EU AI Act: Compliance-Tools zu Artikeln 9, 10, 12-15 und 72 vor der Frist am 2. August 2026

Stilisierte Darstellung eines EU-Regulierungsrahmens in Form von Schichten mit Sternen und Compliance-Symbolen, verbunden mit einer LangSmith-Dashboard-Tracing-Ansicht.

Warum es wichtig ist

LangChain hat veröffentlicht, wie LangSmith und LangChain OSS wichtige Artikel des EU AI Acts abdecken — von Risk Management (Art. 9) bis Post-Market Monitoring (Art. 72). Die Frist für Hochrisiko-KI-Systeme ist der 2. August 2026, und Bußgelder können 15 Millionen Euro oder 3 % des globalen Jahresumsatzes erreichen.

LangChain hat einen detaillierten Leitfaden veröffentlicht, wie sein LangSmith-Observability- und Evaluierungspaket sowie das LangChain-OSS-Framework Organisationen bei der Einhaltung des EU AI Acts unterstützen. Konkrete Mappings zu Artikeln des Gesetzes wurden veröffentlicht, was in einer Branche, die häufig auf der Ebene allgemeiner “Compliance”-Narrative operiert, eine Seltenheit ist.

Frist und Bußgelder

Das entscheidende Datum, das nicht verpasst werden darf: 2. August 2026 — bis zu diesem Datum müssen Hochrisiko-KI-Systeme den EU AI Act einhalten. Bußgelder für Nichteinhaltung sind nach europäischem Regulierungsmuster strukturiert:

  • bis zu 15 Millionen Euro, oder
  • 3 % des globalen Jahresumsatzes (je nachdem, was höher ist).

Für die meisten mittelgroßen und größeren Unternehmen sind 3 % des globalen Umsatzes eine weitaus ernstere Zahl als der absolute Betrag.

Mapping: Gesetzestartikel → LangSmith-Funktionen

LangChain hat in seiner Veröffentlichung ein konkretes Artikel-für-Artikel-Mapping aufgeschlüsselt, was die Arbeit von Compliance- und Rechtsteams erleichtert:

ArtikelAnforderungLangSmith-Lösung
Art. 9Risk Management über den gesamten LebenszyklusOnline-Monitoring mit Custom Evaluators
Art. 10Data Governance und Bias-PräventionEingebaute Bias- und Fairness-Evaluatoren
Art. 12Automatisches Event-LoggingTrace storage with timestamps
Art. 13Transparenz und Output-InterpretierbarkeitVollständige Reasoning-Traces und Execution-Graphs
Art. 14Menschliche Aufsicht und InterventionLangGraph-Interrupts und Annotation-Queues
Art. 15Genauigkeitsmetriken und adversariale RobustheitCorrectness- und Adversarial-Evaluatoren
Art. 72Post-Market MonitoringOnline-Evaluierung und Drift-Detektion

Besonders interessant ist Artikel 14 — menschliche Aufsicht — wo LangChain auf das LangGraph-Interrupt-Primitiv setzt, das das Pausieren eines Flusses, die Inspektion und die Wiederaufnahme an jedem Knoten des Ausführungsgraphen ermöglicht. Dies ist ein technisch nicht unerhebliches Detail, da viele agentische Implementierungen keine granulare Aufsicht auf Schrittebene bieten.

Vier zentrale Funktionalitäten

LangChain organisiert seine Argumente um vier funktionale Säulen:

1. Observability — End-to-End-Tracing erfasst LLM-Aufrufe, Tool-Invocations und Reasoning-Schritte zusammen mit strukturierten Metadaten.

2. Evaluation — vorbereitete Evaluatoren bewerten Bias, Toxizität, Halluzination, PII-Leakage, Prompt-Injection und Genauigkeit. Jeder ist besonders relevant für einen bestimmten Artikel des Gesetzes.

3. Human Oversight — LangGraph-Interrupt-Primitiv für Stop-Inspect-Resume-Abläufe.

4. Data Residency — Deployment-Optionen, die Daten innerhalb der EU-Gerichtsbarkeit halten.

Drei Deployment-Optionen

LangChain nennt drei Wege, wie Organisationen LangSmith unter Beibehaltung der EU-Datenresidenz einsetzen können:

  • EU SaaS — verwaltete Version in einer EU-Region,
  • BYOC (Bring Your Own Cloud) — Kontrolle wird dem Nutzer überlassen, während LangChain die Softwareschicht verwaltet,
  • Self-Hosted — vollständige Kontrolle, aber auch vollständige Verantwortung.

Die Wahl zwischen den Optionen ist typischerweise ein Trade-off zwischen Betriebskosten (Self-Hosted kostet das Team weniger, erfordert aber mehr interne Arbeit) und regulatorischer Sicherheit (BYOC gibt der Organisation mehr Kontrolle über Audit-Trails).

Was dies für Teams in der EU bedeutet

Drei praktische Implikationen:

  • KI-System-Inventar — der erste Schritt für jede Organisation ist eine Liste aktiver KI-Systeme und deren Klassifizierung nach Risikokriterien des Gesetzes. Erst dann macht eine Orientierung auf spezifische Compliance-Tools Sinn.
  • Audit-fähiges Logging — Artikel 12 erfordert automatisches Logging, und die von LangSmith angebotene “Trace storage with timestamps” muss mit entsprechenden Aufbewahrungsrichtlinien konfiguriert werden.
  • Menschliche Aufsicht ist nicht optional — Artikel 14 erfordert eine echte Interventionsmöglichkeit, nicht nur einen Ausschalter. Das LangGraph-Interrupt-Primitiv geht in diese Richtung, aber die Implementierung hängt vom Design des eigenen Ablaufs ab.

Breiterer Kontext

LangChain ist nicht der einzige Akteur, der sein Tool als “Compliance-ready” für den EU AI Act positioniert — ähnliche Ankündigungen kommen von OpenAI-Enterprise-Paketen, AWS Bedrock und einer Reihe spezialisierter MLOps-Tools. Der Unterschied liegt in der Konkretheit des Mappings zu Gesetzesartikeln. Der von LangChain veröffentlichte Leitfaden ist einer der detaillierteren öffentlichen Versuche, für jeden Artikel eine konkrete Funktion zu zeigen, was sowohl die rechtliche als auch die technische Überprüfung erleichtert.

Da die Frist des 2. August 2026 näher rückt, wird erwartet, dass immer mehr Anbieter ähnliche Leitfäden veröffentlichen. Für Teams in der EU, die bereits den LangChain-Stack verwenden, ist diese Veröffentlichung eine praktische Checkliste für eine erste Bewertung; für Teams, die andere Tools verwenden, setzt sie den Standard für den Detailgrad, den sie von ihren eigenen Anbietern einfordern sollten.

🤖

Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.