🤖 24 AI
🟡 🛡️ Sigurnost petak, 24. travnja 2026. · 2 min čitanja

GPT-5.5 System Card: OpenAI objavljuje sigurnosne evaluacije i procjenu rizika novog modela

Editorial illustration: AI sigurnost — sigurnost

Zašto je bitno

OpenAI je uz lansiranje GPT-5.5 objavio System Card, dokument s evaluacijama sposobnosti i sigurnosnih mjera modela. Riječ je o nastavku prakse koja traje od GPT-4 i služi kao temelj za transparentni deployment AI sustava.

Uz lansiranje modela GPT-5.5, OpenAI je 23. travnja 2026. objavio prateći System Card — tehnički dokument koji opisuje evaluacije sposobnosti i sigurnosne mjere poduzete prije javnog deploymenta modela.

System Cardovi su postali standard u industriji otkako ih je OpenAI uveo uz GPT-4 2023. godine. Sličnu praksu usvojili su Anthropic (s tzv. “model cards” i Responsible Scaling Policy izvještajima), Google DeepMind te xAI. Za GPT-5.5, dokument je objavljen istodobno s modelom.

Što se obično nalazi u System Cardu?

System Card tipično pokriva više područja evaluacije. Capability evaluations mjere performance modela na benchmark testovima — od općeg rezoniranja do specijaliziranih domena poput matematike, znanosti i programiranja. Bias i harm testing procjenjuje sklonost modela ka štetnim odgovorima, stereotipima ili dezinformacijama.

Poseban dio obično je posvećen red-teamingu — kontroliranim pokušajima vanjskih istraživača da “slome” model traženjem opasnih informacija ili zaobilaženjem sigurnosnih mjera. Kod GPT razine 5 i novijih, tu se uobičajeno uključuju evaluacije kibernetičkih sposobnosti (može li model pomoći u pisanju malicioznog koda), persuasion risks (može li manipulirati ljudima u osjetljivim kontekstima) te biološke i kemijske opasnosti.

Zašto je System Card posebno važan za GPT-5.5?

GPT-5.5 je jedan od rijetkih modela koji dolazi zajedno s vlastitim Bio Bug Bounty programom — javnim pozivom red-teamerima da pronađu “univerzalne jailbreakove” u području biološke sigurnosti. To je snažan signal da OpenAI internu klasifikaciju modela stavlja u kategoriju povišenog rizika za dual-use scenarije.

U tom kontekstu, System Card služi kao referentna točka za regulatore i kupce: dokazuje da su prije deploymenta provedene kontrolirane evaluacije, da su rizici kvantificirani i da postoje mjere ublažavanja. Za compliance timove u reguliranim industrijama, System Card je često preduvjet za procjenu usvajanja modela.

Što mogu očekivati istraživači i developeri?

Za akademske istraživače, System Card je najbliži izvor koji im je dostupan bez pristupa internim evaluacijama OpenAI-ja. Na temelju njega obično se pišu nezavisne replike, usporedbe s drugim modelima i analize sigurnosnih guardrailova.

Za developere koji integriraju GPT-5.5 u svoje proizvode, dokument pomaže u risk assessment procesu — identificira domene u kojima model treba dodatne guardrail mehanizme (content filtere, rate limite, human-in-the-loop provjere). To je posebno važno za startupe koji grade vertikalne AI rješenja u zdravstvu, pravu i financijama.

Detaljni brojčani rezultati iz GPT-5.5 System Carda vjerojatno će biti predmet analiza u nadolazećim tjednima, kao što je bio slučaj s prethodnim OpenAI modelima.

🤖

Ovaj članak generiran je uz pomoć umjetne inteligencije na temelju primarnih izvora.