🔴 🛡️ Sicherheit Freitag, 8. Mai 2026 · 2 Min. Lesezeit ·

OpenAI: GPT-5.5 und GPT-5.5-Cyber erweitern das Trusted-Access-for-Cyber-Programm

Editorial illustration: GPT-5.5 und GPT-5.5-Cyber erweitern das Trusted-Access-for-Cyber-Programm

OpenAI erweitert das Trusted-Access-for-Cyber-Programm (TAC) auf Tausende verifizierter Defensivforscher und Hunderte Teams zum Schutz kritischer Software-Infrastruktur. Das Programm führt GPT-5.5 mit reduzierten Einschränkungen sowie das spezialisierte GPT-5.5-Cyber für Reverse Engineering und Malware-Analyse ein.

🤖

Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.

OpenAI kündigte am 7. Mai 2026 eine erhebliche Erweiterung des Trusted-Access-for-Cyber-Programms (TAC) an und stellte GPT-5.5 sowie das spezialisierte GPT-5.5-Cyber in den Mittelpunkt seiner Strategie zur Unterstützung des defensiven Cyber-Ökosystems. Das Programm öffnet sich für Tausende verifizierter Defensivforscher und Hunderte Teams, die kritische Software-Infrastruktur schützen.

Was unterscheidet GPT-5.5 im TAC-Programm von der öffentlichen Version?

Zwei Wochen vor dieser Ankündigung veröffentlichte OpenAI GPT-5.5 für alle ChatGPT-Plus-, Pro-, Business- und Enterprise-Nutzer. Die über TAC verfügbare Version hat reduzierte Einschränkungen in Cyber-Bereichen, was eine tiefere Analyse von Sicherheitsszenarien, das Verfassen detaillierterer Sicherheitsberichte und die Unterstützung beim Engineering defensiver Werkzeuge erlaubt. OpenAI betreibt diese permissive Variante über Codex, was verifizierten Teams direkten Zugang zu erweiterten Fähigkeiten in ihrer Entwicklungsumgebung gibt.

Was ist neu am GPT-5.5-Cyber-Modell?

GPT-5.5-Cyber richtet sich ausschließlich an Defensivforscher auf der höchsten TAC-Verifizierungsstufe und ist das erste OpenAI-Modell, das explizit für kombinierte offensive-defensive Sicherheitsarbeit vorgesehen ist. Die konkreten Anwendungsfälle, die OpenAI nennt, umfassen das Schreiben von Proof-of-Concept-Exploits für entdeckte Schwachstellen, die Durchführung von Simulationen der Sicherheitslage einer Organisation, Bug-Hunting, das Studium von Schadsoftware und das Reverse Engineering von Angriffen. Weniger Einschränkungen bedeuten, dass das Modell direkt Inhalte generieren und analysieren kann, die das öffentliche Modell ablehnen würde — jedoch nur innerhalb des geschlossenen Kanals genehmigter Nutzer.

Warum ist dieser Schritt strategisch bedeutsam?

Die Ankündigung fügt sich in OpenAIs breitere Positionierung ein, dass die defensive Seite des Cyber-Ökosystems strukturell hinter den Angreifern zurückliegt und dass skalierte KI-Werkzeuge diese Asymmetrie umkehren können. Durch die Skalierung des Programms auf Tausende von Verteidigern und Hunderte Teams geht OpenAI von einer Pilotphase zu einem operativen Netzwerk über, in dem der Schutz kritischer Infrastruktur, Finanzsysteme und Software-Lieferketten spezialisierte Werkzeuge erhält. Der Schritt setzt auch einen Branchenpräzedenzfall für den verwalteten Zugang zu Modellen mit reduzierten Einschränkungen, der an eine strenge Identitätsverifizierung gebunden ist.

Häufig gestellte Fragen

Wer kann auf das GPT-5.5-Cyber-Modell zugreifen?
Nur Defensivteams und Forscher, die auf der höchsten Stufe des OpenAI-Trusted-Access-for-Cyber-Programms verifiziert sind, mit weniger Guardrails als in der öffentlichen Modellversion.
Was ermöglicht GPT-5.5-Cyber konkret?
Das Schreiben von Proof-of-Concept-Exploits für gefundene Bugs, das Durchführen von Sicherheitssimulationen, Reverse Engineering von Angriffen und die Analyse von Schadsoftware.
Was ist der Umfang des Programms?
OpenAI skaliert es auf Tausende einzelner Defensivforscher und Hunderte Teams, die für den Schutz kritischer Software verantwortlich sind.