OpenAI nudi 25.000 dolara za pronalazak univerzalnih jailbreakova biološke sigurnosti GPT-5.5
Zašto je bitno
OpenAI je uz GPT-5.5 pokrenuo Bio Bug Bounty program s nagradama do 25.000 dolara za pronalazak univerzalnih jailbreakova u domeni biološke sigurnosti. Riječ je o usmjerenom red-teaming izazovu za istraživače.
OpenAI je uz lansiranje GPT-5.5 pokrenuo Bio Bug Bounty — poseban red-teaming program koji traži od sigurnosnih istraživača da pronađu univerzalne jailbreakove u domeni biološke sigurnosti modela. Nagrade dosežu 25.000 američkih dolara za najteže kategorije pronalazaka.
Što je “bio bug bounty”?
Klasični bug bounty programi postoje desetljećima u softverskoj industriji — kompanije poput Googlea, Microsofta i Mete plaćaju vanjskim istraživačima za pronalazak propusta u njihovim proizvodima. OpenAI tu ideju preslikava na AI sigurnost, ali s fokusom na jednu specifičnu domenu: biosigurnost.
Razlog je jasan. Napredni jezični modeli pokazali su sposobnost detaljnog raspravljanja o znanstvenim temama, uključujući mikrobiologiju, genetičko inženjerstvo i sintezu spojeva. To ih čini dual-use tehnologijom — mogu ubrzati razvoj novih terapija, cjepiva i dijagnostike, ali potencijalno i olakšati zloupotrebu u razvoju biološkog oružja.
Zašto baš biologija?
Regulatori su biosigurnost izdvojili kao prioritet. Američki Executive Order 14110 iz 2023. eksplicitno navodi biološke rizike kao kategoriju koja zahtijeva posebnu pažnju frontier AI laboratorija. EU AI Act klasificira sustave koji mogu pomoći razvoju CBRN prijetnji (kemijske, biološke, radiološke, nuklearne) kao visokorizične.
Frontier laboratoriji odgovorili su na to različitim politikama. Anthropic je uveo ASL (AI Safety Levels) skalu, pri čemu modeli koji pokazuju “značajno povišen rizik” uz biosigurnost zahtijevaju dodatne mjere prije deploymenta. Google DeepMind ima sličan okvir kroz Frontier Safety Framework. OpenAI-jev Bio Bug Bounty ulazi u istu obitelj proaktivnih inicijativa.
Što je “univerzalni jailbreak”?
Klasični jailbreak je specifični prompt koji zaobilazi guardrailove u jednom scenariju. Univerzalni jailbreak je robusnija tehnika koja radi u širokom rasponu scenarija i topika — jednom kad je pronađen, može se primijeniti na različite forme štetnih upita.
Upravo su takve tehnike najvrijednije za napadače i zato ih OpenAI najviše želi detektirati prije nego što dođu u ruke zlonamjernih aktera. Nagrada od 25.000 USD signalizira koliko kompanija ozbiljno tretira taj rizik.
Tko može sudjelovati?
Program je otvoren red-teamerima, istraživačima biosigurnosti, AI safety stručnjacima i security zajednici općenito. Slične programe imaju i drugi laboratoriji — Anthropic ima interni i vanjski red-teaming proces, Google DeepMind radi u suradnji s vanjskim konzultantima.
Za Hrvatsku i regiju, to znači konkretnu priliku: domaći istraživači i security profesionalci mogu sudjelovati u bounty programima frontier laboratorija, što donosi i prihod i reputacijsku prednost. Bio Bug Bounty je trenutno jedan od rijetkih programa s tako jasno definiranim domen-specifičnim fokusom i iznosom nagrade.
Detaljni uvjeti sudjelovanja, pravila otkrivanja (responsible disclosure) i tehnička dokumentacija dostupni su na službenoj stranici programa.
Ovaj članak generiran je uz pomoć umjetne inteligencije na temelju primarnih izvora.