OpenAI objavio dokument 'Our principles': pet temeljnih načela koja vode put prema AGI-u
Zašto je bitno
OpenAI je 26. travnja 2026. objavio dokument 'Our principles' u kojem Sam Altman izlaže pet temeljnih načela koja vode kompaniju u radu prema AGI-u (umjetna opća inteligencija). Objava dolazi u trenutku pojačanog regulatornog pritiska na AI laboratorije u SAD-u i EU te predstavlja korporativnu deklaraciju o vrijednostima i obvezama prema široj javnosti.
OpenAI je u nedjelju, 26. travnja 2026., objavio dokument pod naslovom “Our principles” u kojem suosnivač i izvršni direktor Sam Altman izlaže pet temeljnih načela koja vode kompaniju u radu prema AGI-u (Artificial General Intelligence — umjetna opća inteligencija). Objava je dospjela na službeni RSS feed kompanije (openai.com/news/rss.xml) s vremenskom oznakom 16:00 UTC.
Što je OpenAI točno objavio?
Prema sažetku iz RSS feeda, dokument afirmira misiju kompanije: “Naša je misija osigurati da AGI koristi cjelokupnom čovječanstvu”. Sam Altman u objavi izlaže “pet načela koja vode naš rad”. Detalji o tome o kojim se točno načelima radi nisu bili dostupni u trenutku pisanja ovog članka jer je direktna URL stranica vraćala HTTP 403 odgovor — vjerojatno zbog konfiguracije Cloudflare zaštite koja ograničava automatske posjete. Objava je formatom slična ranijim “policy” dokumentima OpenAI-ja poput “Planning for AGI and Beyond” iz 2023. godine i “Preparedness Framework” iz 2024.
Zašto OpenAI ovo objavljuje sada?
Kontekst objave ne može se ignorirati. Tijekom 2026. godine AI industrija je prošla kroz nekoliko ključnih regulatornih trenutaka: EU AI Act je u punoj implementacijskoj fazi, FTC u SAD-u nastavlja istraživanja oko ponašanja velikih AI laboratorija, a Kongres je održao niz saslušanja o riziku AI sustava za izbore i nacionalnu sigurnost. Korporativne deklaracije ovoga tipa služe višestrukoj svrsi — komuniciraju vrijednosti prema regulatorima, signaliziraju investitorima dugoročnu strategiju i postavljaju javni standard za očekivano ponašanje konkurenata poput Anthropica, Googlea i Mete.
Što ovo znači za AI sektor?
Dokumenti tipa “principles” obično djeluju kao referentne točke za internu kulturu, eksterno regulatorno pozicioniranje i etičke commitmente koje kompanije teško mogu naknadno povući bez reputacijskog troška. Anthropic ima svoj Responsible Scaling Policy, Google DeepMind ima AI Principles objavljene još 2018., a Meta ima vlastiti okvir za otvoreno objavljivanje modela. OpenAI-jev novi okvir vjerojatno će biti uspoređivan upravo s ovim alternativama — posebno u pogledu konkretnih obveza oko transparentnosti, sigurnosnih evaluacija i mehanizama eksterne kontrole.
Što slijedi?
Puni tekst dokumenta bit će potreban za detaljniju analizu — posebno za usporedbu s ranijim OpenAI policy objavama te za procjenu jesu li nova načela operativna (s konkretnim metrikama i rokovima) ili isključivo načelna. Praćenje reakcija regulatora, akademske AI safety zajednice i konkurenata u sljedećih nekoliko dana dat će puniji uvid u ozbiljnost objave.
Ovaj članak generiran je uz pomoć umjetne inteligencije na temelju primarnih izvora.
Izvori
Povezane vijesti
AISI testirao četiri Claude modela na sabotaži AI safety istraživanja: nema spontane sabotaže, ali Mythos Preview pokazao 65% nesklad između razmišljanja i postupaka
ESRRSim okvir mjeri strateško zaključivanje u 11 reasoning modela: stope detekcije rizika variraju 14,45–72,72%, otkriva i međugeneracijsku evaluation awareness
Anthropic ažurirao izborne sigurnosne mjere: Claude Opus 4.7 i Sonnet 4.6 postižu 95-96 posto na evaluacijama političke neutralnosti