EU AI Office: Kommission eröffnet Konsultation zu KI-Transparenzpflichten
Die Europäische Kommission hat einen Entwurf der Leitlinien zu den Transparenzpflichten des KI-Gesetzes veröffentlicht und eine öffentliche Konsultation eröffnet. Die Konsultation läuft bis 3. Juni 2026, die Pflichten treten am 2. August 2026 in Kraft. Anbieter müssen KI-generierte Inhalte mit maschinenlesbaren Markern kennzeichnen und Nutzer über die Interaktion mit KI-Systemen informieren.
Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.
Die Europäische Kommission veröffentlichte am 7. Mai 2026 einen Entwurf der Leitlinien zu den Transparenzpflichten des KI-Gesetzes und eröffnete eine öffentliche Konsultation, um Rückmeldungen vor der endgültigen Annahme zu sammeln. Das Dokument operationalisiert Artikel 50 der Verordnung und klärt, was Anbieter und Betreiber von KI-Systemen ab August 2026 tun müssen.
Welche Fristen gelten und wer muss handeln?
Die öffentliche Konsultation ist bis 3. Juni 2026 geöffnet und richtet sich an KI-System-Anbieter und -Entwickler, Betreiber, Behörden, akademische Einrichtungen, Forschungsorganisationen und Bürger. Die endgültigen Leitlinien sollen vor dem 2. August 2026 angenommen werden, wenn Artikel 50 des KI-Gesetzes Rechtswirkung entfaltet. Die Kommission kündigte gleichzeitig einen gesonderten freiwilligen Verhaltenskodex zur Kennzeichnung KI-generierter Inhalte an, der von unabhängigen Experten entwickelt wird und im Juni 2026 als Compliance-Nachweisinstrument erwartet wird.
Was verlangen die Transparenzpflichten konkret?
Anbieter von KI-Systemen müssen Nutzer in der Europäischen Union informieren, wenn sie mit einem KI-System interagieren oder auf KI-generierte Inhalte gestoßen sind. Zudem muss jeder KI-generierte oder KI-manipulierte Inhalt mit maschinenlesbaren Markern versehen werden — technischen Metadaten oder Wasserzeichen, die eine automatisierte Herkunftserkennung ermöglichen. Zusätzliche, sichtbare Hinweise sind für vier Kategorien erforderlich: Deepfake-Aufnahmen, KI-generierte Publikationen von öffentlichem Interesse, Emotionserkennungssysteme und biometrische Kategorisierungswerkzeuge.
Wie unterscheidet sich dies vom Verhaltenskodex?
Die derzeit in der Konsultation befindlichen Leitlinien sind die offizielle Auslegung der Verordnung und rechtlich bindend in dem Sinne, dass Aufsichtsbehörden sie bei der Compliance-Beurteilung heranziehen. Der für Juni angekündigte Verhaltenskodex ist ein freiwilliges Instrument, das konkrete technische Lösungen bietet — etwa welche Wasserzeichenformate zu verwenden oder wie sie in ein Modell einzubetten sind — und Unternehmen, die ihn übernehmen, den Compliance-Nachweis erleichtert. Die Kommission positioniert beide Dokumente als komplementär: die Leitlinien definieren das „Was”, der Kodex das „Wie”.
Was bedeutet dies für Anbieter außerhalb der EU?
Die Pflichten gelten extraterritorial — jedes KI-System, dessen Ausgaben in der EU konsumiert werden, muss compliant sein, unabhängig vom Sitz des Anbieters. Dies umfasst generative Modelle für Text, Bilder, Audio und Video sowie Klassifikatoren zur Emotionserkennung oder biometrischen Kategorisierung. Sanktionen bei Nichteinhaltung können bis zu 35 Millionen Euro oder 7 % des globalen Jahresumsatzes betragen, je nachdem, welcher Betrag höher ist.
Häufig gestellte Fragen
- Bis wann läuft die öffentliche Konsultation zum Leitlinienentwurf?
- Die Konsultation ist bis 3. Juni 2026 geöffnet und richtet sich an Anbieter, Betreiber, Behörden, akademische Einrichtungen und Bürger.
- Wann treten die Transparenzpflichten in Kraft?
- Die Pflichten aus Artikel 50 des KI-Gesetzes gelten ab 2. August 2026, unabhängig vom Zeitpunkt der endgültigen Leitlinienadoption.
- Was sind maschinenlesbare Marker?
- Technische Metadaten oder Wasserzeichen, die in KI-generierte Inhalte eingebettet werden und eine automatisierte Erkennung des künstlichen Ursprungs ermöglichen, typischerweise über Standards wie C2PA.
Verwandte Nachrichten
EU AI Office: Politische Einigung zur Vereinfachung des AI Act und Verbot von Nudification-Apps
arXiv:2605.04039: Sicherheit und Genauigkeit klinischer KI-Modelle folgen unterschiedlichen Skalierungsgesetzen
UK AISI: neues MoU mit Microsoft für Frontier-KI-Sicherheit in 3 Bereichen