🤖 24 AI
🟡 🛡️ Sicherheit Freitag, 24. April 2026 · 3 Min. Lesezeit

GPT-5.5 System Card: OpenAI veröffentlicht Sicherheitsevaluierungen und Risikobewertung für das neue Modell

Editorial illustration: KI-Sicherheit — sigurnost

Warum es wichtig ist

OpenAI hat zusammen mit dem Launch von GPT-5.5 eine System Card veröffentlicht — ein Dokument mit Fähigkeits- und Sicherheitsevaluierungen des Modells. Dies setzt eine seit GPT-4 bestehende Praxis fort und dient als Grundlage für ein transparentes KI-Deployment.

Zusammen mit dem Launch von GPT-5.5 veröffentlichte OpenAI am 23. April 2026 eine begleitende System Card — ein technisches Dokument, das Fähigkeitsevaluierungen und Sicherheitsmaßnahmen beschreibt, die vor dem öffentlichen Deployment des Modells ergriffen wurden.

System Cards sind zum Industriestandard geworden, seit OpenAI sie 2023 mit GPT-4 eingeführt hat. Eine ähnliche Praxis haben Anthropic (mit sogenannten „Model Cards” und Berichten zur Responsible Scaling Policy), Google DeepMind und xAI übernommen. Für GPT-5.5 wurde das Dokument gleichzeitig mit dem Modell veröffentlicht.

Was findet sich typischerweise in einer System Card?

Eine System Card deckt typischerweise mehrere Evaluierungsbereiche ab. Capability Evaluations messen die Leistung des Modells in Benchmark-Tests — von allgemeinem Schlussfolgern bis hin zu spezialisierten Bereichen wie Mathematik, Wissenschaft und Programmierung. Bias- und Harm-Testing bewertet die Neigung des Modells zu schädlichen Antworten, Stereotypen oder Fehlinformationen.

Ein gesonderter Teil ist üblicherweise dem Red-Teaming gewidmet — kontrollierten Versuchen externer Forscher, das Modell zu „brechen”, indem sie gefährliche Informationen anfordern oder Sicherheitsmaßnahmen umgehen. Bei Modellen der GPT-5-Generation und neueren umfasst das typischerweise Evaluierungen von Cyber-Fähigkeiten (kann das Modell beim Schreiben von Schadcode helfen), Überzeugungsrisiken (kann es Menschen in sensiblen Kontexten manipulieren) sowie biologische und chemische Gefahren.

Warum ist die System Card für GPT-5.5 besonders wichtig?

GPT-5.5 ist eines der seltenen Modelle, das mit einem eigenen Bio-Bug-Bounty-Programm kommt — einer öffentlichen Einladung an Red-Teamer, „universelle Jailbreaks” im Bereich der Biosicherheit zu finden. Das ist ein starkes Signal, dass OpenAIs interne Klassifizierung das Modell in die Kategorie erhöhten Risikos für Dual-Use-Szenarien einordnet.

In diesem Kontext dient die System Card als Referenzpunkt für Regulatoren und Kunden: Sie belegt, dass vor dem Deployment kontrollierte Evaluierungen durchgeführt wurden, dass Risiken quantifiziert wurden und dass Abschwächungsmaßnahmen existieren. Für Compliance-Teams in regulierten Branchen ist die System Card oft eine Voraussetzung für die Bewertung der Modellannahme.

Was können Forscher und Entwickler erwarten?

Für akademische Forscher ist die System Card die ihnen ohne Zugang zu OpenAIs internen Evaluierungen nächste verfügbare Quelle. Auf ihrer Grundlage werden typischerweise unabhängige Replikationen erstellt, Vergleiche mit anderen Modellen angestellt und Sicherheits-Guardrail-Analysen durchgeführt.

Für Entwickler, die GPT-5.5 in ihre Produkte integrieren, hilft das Dokument beim Risikobewertungsprozess — es identifiziert Bereiche, in denen das Modell zusätzliche Guardrail-Mechanismen benötigt (Content-Filter, Rate-Limits, Human-in-the-Loop-Prüfungen). Das ist besonders wichtig für Start-ups, die vertikale KI-Lösungen im Gesundheitswesen, im Rechtsbereich und im Finanzbereich entwickeln.

Die detaillierten numerischen Ergebnisse aus der GPT-5.5 System Card werden wahrscheinlich in den kommenden Wochen Gegenstand von Analysen sein, wie es bei früheren OpenAI-Modellen der Fall war.

🤖

Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.