UK AISI: novi MoU s Microsoftom za frontier-AI sigurnost u 3 područja
UK-ov AI Security Institute objavio je 5. svibnja partnerstvo s Microsoftom oko frontier-AI sigurnosti. Suradnja pokriva tri istraživačka područja: evaluaciju visokorizičnih sposobnosti, testiranje zaštita i istraživanje društvene otpornosti na konverzacijski AI.
Ovaj članak generiran je uz pomoć umjetne inteligencije na temelju primarnih izvora.
Što je AISI objavio?
UK-ov AI Security Institute (AISI), koji djeluje pod Department for Science, Innovation and Technology, objavio je 5. svibnja 2026. novu suradnju s Microsoftom. Sporazum pokriva tri istraživačka područja vezana uz frontier-AI sigurnost — najmoćnije sustave koji prelaze trenutnu generaciju modela.
Microsoft je istog dana objavio paralelnu izjavu na svom blogu, čime je partnerstvo formalno potvrđeno s obje strane.
Koja tri područja pokriva suradnja?
Sporazum definira jasno omeđen istraživački opseg:
- Evaluacija visokorizičnih sposobnosti — metode za procjenu naprednih sposobnosti AI sustava u rizičnim kontekstima
- Testiranje zaštitnih mjera — vrednovanje protective measures koje frontier sustavi koriste za sprječavanje zlouporabe
- Istraživanje društvene otpornosti — kako konverzacijski AI komunicira s korisnicima u osjetljivim situacijama (mentalno zdravlje, dezinformacije i slično)
Tri područja zajedno pokrivaju i tehnički sloj (model capabilities) i ljudski sloj (krajnji korisnik).
Zašto AISI traži suradnju s industrijom?
U službenoj izjavi AISI navodi: “Kako AI sustavi postaju sve sposobniji, održiva dvosmjerna suradnja između vlade i kompanija koje razvijaju i implementiraju frontier AI ključna je za napredak našeg zajedničkog razumijevanja velikih rizika za javnu sigurnost i nacionalnu sigurnost.”
Drugim riječima, regulator priznaje da bez pristupa pre-release modelima i internim metrikama ne može efektivno procijeniti rizik. Microsoft, kao jedan od četvorice frontier provajdera (uz OpenAI, Anthropic i Google DeepMind), takav pristup može osigurati.
Što ovo znači za frontier-AI sigurnost?
Partnerstvo proširuje AISI mrežu izvan ranijih sporazuma s OpenAI-jem i Anthropicom. Time AISI pokriva tri od četiri vodeća frontier provajdera, što povećava reprezentativnost njihovih evaluacija i smanjuje rizik tržišne pristranosti rezultata.
Česta pitanja
- Što je UK AISI?
- AI Security Institute je britansko državno tijelo pod Department for Science, Innovation and Technology koje istražuje sigurnost najnaprednijih AI sustava.
- Koja su tri područja suradnje?
- Evaluacija visokorizičnih sposobnosti, testiranje zaštitnih mjera za frontier AI, te istraživanje društvene otpornosti na konverzacijski AI u osjetljivim kontekstima.
- Je li Microsoft objavio paralelnu izjavu?
- Da, Microsoft je istovremeno na svom blogu objavio odgovarajuću izjavu o partnerstvu.
Povezane vijesti
NIST CAISI proširio frontier AI national security testiranje na Google DeepMind, Microsoft i xAI
LangChain i LangSmith ciljaju EU AI Act: alati za sukladnost prema člancima 9, 10, 12-15 i 72 do roka 2. kolovoza 2026.
OpenAI dobio FedRAMP Moderate autorizaciju: ChatGPT Enterprise i API otvoreni za sigurno usvajanje u američkim federalnim agencijama