OpenAI: kako sigurno pokrenuti Codex u produkciji — sandbox, approvals i agent telemetrija
OpenAI je objavio smjernice za sigurno pokretanje Codex coding agenta u enterprise okruženjima. Tekst opisuje četiri sigurnosna sloja: sandboxing izvršavanja, sustav odobrenja (approvals), mrežne politike i agent-native telemetriju, namijenjene timovima koji razmatraju compliance i kontroliranu integraciju AI agenta u razvojne pipeline.
Ovaj članak generiran je uz pomoć umjetne inteligencije na temelju primarnih izvora.
OpenAI je 8. svibnja objavio dokument Running Codex safely at OpenAI, vodič za enterprise korisnike koji opisuje kako Codex coding agenta sigurno pokrenuti u produkcijskom okruženju. Materijal je dio šire serije OpenAI-jevih objava o sigurnosti coding agenata, nakon ranijih tekstova o Codex Security agentu (ožujak 2026.).
Koja četiri sigurnosna sloja OpenAI predlaže?
Vodič opisuje četiri komplementarna mehanizma. Sandboxing izolira izvršavanje koda u kontroliranom okruženju gdje agent ne može direktno utjecati na proizvodne sustave. Approvals su sustav odobrenja koji čini ljudski nadzor obaveznim za radnje s visokim rizikom — mrežni pristup, izmjene osjetljivih datoteka, deploy. Mrežne politike definiraju koje vanjske domene i interne servise agent smije dosegnuti. Agent-native telemetrija bilježi pozive alata, donesene odluke i kontekst, što omogućuje reviziju ponašanja umjesto pukog logiranja request/response parova.
Što ovo znači za enterprise compliance?
Pristup odražava trend pomicanja AI sigurnosti s razine modela na razinu agentskog izvršavanja. Tradicionalna application security pretpostavlja deterministički kod; AI agenti uvode neodređenost koju compliance timovi moraju adresirati granularnim politikama izvršavanja i revizijskim tragovima. OpenAI signalizira da nedovoljno nije samo “model je siguran” — okolinski kontroli moraju omogućiti da i nesiguran ili nepredvidiv izlaz ostane unutar prihvatljivih granica.
Kako se ovo uklapa u OpenAI Codex narativ?
Vodič dolazi nakon dvaju ranijih tekstova: Codex Security: Now in Research Preview (6. ožujka) o AI agentu za pronalaženje ranjivosti i Why Codex Security Doesn’t Include a SAST Report (16. ožujka) o constraint-based pristupu otkrivanju bugova. Novi dokument zatvara krug — nakon sigurnosnih sposobnosti samog agenta, pažnja se prebacuje na sigurno operiranje agentom u produkciji. Puni sadržaj članka u trenutku pisanja nije bio dostupan kroz javne kanale; ovaj sažetak temelji se na službenom RSS opisu.
Česta pitanja
- Što je agent-native telemetrija?
- Telemetrija dizajnirana specifično za AI agente — bilježi pozive alata, donesene odluke, kontekst i rezultate izvršavanja, umjesto klasičnih request/response logova. Omogućuje reviziju ponašanja agenta i otkrivanje anomalija.
- Zašto su approvals važni za AI coding agente?
- Sustav odobrenja čini ljudski nadzor obaveznim za radnje s visokim rizikom (npr. mrežni pristup, brisanje datoteka, deploy). Sprečava da agent samostalno izvrši nešto što tim nije odobrio i ostavlja revizijski trag.
- Kome je usmjeren ovaj OpenAI vodič?
- Enterprise timovima koji već koriste ili razmatraju Codex u produkciji i moraju zadovoljiti compliance, security i internal review zahtjeve. Vodič je ujedno reference za interne sigurnosne politike.
Povezane vijesti
arXiv:2605.04572: SQSD otkriva da i bezopasni fine-tuning urušava sigurnost modela
OpenAI: GPT-5.5 i GPT-5.5-Cyber proširuju Trusted Access for Cyber program
arXiv:2605.04019: automatizirani red teaming agent postiže 85 % uspjeha protiv Mete Llama Scout uz 45+ napada i 450+ transformacija