🤖 24 AI
🟡 🛡️ Sicherheit Freitag, 24. April 2026 · 3 Min. Lesezeit

OpenAI bietet 25.000 Dollar für das Finden universeller Jailbreaks im Bereich der biologischen Sicherheit von GPT-5.5

Editorial illustration: KI-Sicherheit — sigurnost

Warum es wichtig ist

OpenAI hat zusammen mit GPT-5.5 ein Bio-Bug-Bounty-Programm gestartet, das Prämien von bis zu 25.000 Dollar für das Finden universeller Jailbreaks im Bereich der biologischen Sicherheit des Modells bietet. Es handelt sich um eine gezielte Red-Teaming-Herausforderung für Forscher.

Zusammen mit dem Launch von GPT-5.5 hat OpenAI Bio Bug Bounty gestartet — ein spezielles Red-Teaming-Programm, das Sicherheitsforscher auffordert, universelle Jailbreaks im Bereich der biologischen Sicherheit des Modells zu finden. Die Prämien erreichen 25.000 US-Dollar für die schwersten Kategorien von Befunden.

Was ist ein „Bio Bug Bounty”?

Klassische Bug-Bounty-Programme gibt es seit Jahrzehnten in der Softwarebranche — Unternehmen wie Google, Microsoft und Meta bezahlen externe Forscher dafür, Sicherheitslücken in ihren Produkten zu finden. OpenAI überträgt diese Idee auf die KI-Sicherheit, jedoch mit dem Fokus auf einen spezifischen Bereich: Biosicherheit.

Der Grund ist klar. Fortschrittliche Sprachmodelle haben die Fähigkeit gezeigt, wissenschaftliche Themen detailliert zu erörtern, einschließlich Mikrobiologie, Gentechnik und Synthese von Verbindungen. Das macht sie zu Dual-Use-Technologien — sie können die Entwicklung neuer Therapien, Impfstoffe und Diagnostika beschleunigen, aber potenziell auch den Missbrauch bei der Entwicklung biologischer Waffen erleichtern.

Warum speziell Biologie?

Regulatoren haben die Biosicherheit als Priorität eingestuft. Die US-amerikanische Executive Order 14110 von 2023 nennt biologische Risiken ausdrücklich als Kategorie, die besondere Aufmerksamkeit von Frontier-KI-Laboren erfordert. Der EU AI Act klassifiziert Systeme, die bei der Entwicklung von CBRN-Bedrohungen (chemisch, biologisch, radiologisch, nuklear) helfen können, als hochriskant.

Frontier-Labore haben mit unterschiedlichen Richtlinien reagiert. Anthropic hat die ASL (AI Safety Levels)-Skala eingeführt, bei der Modelle, die ein „signifikant erhöhtes Risiko” im Zusammenhang mit der Biosicherheit zeigen, vor dem Deployment zusätzliche Maßnahmen erfordern. Google DeepMind hat einen ähnlichen Rahmen durch das Frontier Safety Framework. OpenAIs Bio Bug Bounty fällt in dieselbe Familie proaktiver Initiativen.

Was ist ein „universeller Jailbreak”?

Ein klassischer Jailbreak ist ein spezifischer Prompt, der Guardrails in einem Szenario umgeht. Ein universeller Jailbreak ist eine robustere Technik, die in einem breiten Spektrum von Szenarien und Themen funktioniert — einmal gefunden, kann sie auf verschiedene Formen schädlicher Anfragen angewendet werden.

Genau diese Techniken sind für Angreifer am wertvollsten, weshalb OpenAI sie am dringendsten erkennen möchte, bevor sie in die Hände böswilliger Akteure gelangen. Die Prämie von 25.000 USD signalisiert, wie ernst das Unternehmen dieses Risiko nimmt.

Wer kann teilnehmen?

Das Programm steht Red-Teamern, Biosicherheitsforschern, KI-Safety-Experten und der Security-Community im Allgemeinen offen. Ähnliche Programme betreiben auch andere Labore — Anthropic hat sowohl einen internen als auch einen externen Red-Teaming-Prozess, und Google DeepMind arbeitet mit externen Beratern zusammen.

Das stellt eine konkrete Chance dar: Forscher und Sicherheitsexperten können an Bounty-Programmen von Frontier-Laboren teilnehmen, was sowohl Einkommen als auch Reputationsvorteile bringt. Das Bio Bug Bounty ist derzeit eines der seltenen Programme mit einem so klar definierten domänenspezifischen Fokus und Prämienbetrag.

Die vollständigen Teilnahmebedingungen, Regeln zur verantwortungsvollen Offenlegung (Responsible Disclosure) und technische Dokumentation sind auf der offiziellen Programmseite verfügbar.

🤖

Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.