OECD: Velika Britanija postavlja globalni standard za transparentnost vladinih algoritama
Zašto je bitno
OECD analizira britanski Algorithmic Transparency Recording Standard (ATRS) koji je od 2025. obavezan za središnju vladu. Do ožujka 2025. objavljeno je 125 zapisa o korištenju algoritama. Estonija je već preuzela standard, a OECD ga naziva 'svjetski vodećim'.
Kako vlade koriste algoritme za donošenje odluka koje utječu na živote građana? Britanski ATRS standard pokušava to učiniti transparentnim — i OECD ga hvali kao globalni uzor.
Što je ATRS?
Algorithmic Transparency Recording Standard (ATRS) je standardizirani okvir koji zahtijeva od javnih organizacija da javno objave informacije o algoritmima koje koriste za donošenje odluka. Objavljen 2021. godine, od 2025. je obavezan za svu središnju vladu Ujedinjenog Kraljevstva.
Do ožujka 2025. objavljeno je 125 ATRS zapisa, pokrivajući algoritme od zdravstvenog sustava do socijalne zaštite.
Lekcije iz prošlih grešaka
Standard je motiviran nizom skandala s vladinim algoritmima:
- UK 2020. — algoritam za ocjenjivanje ispita sustavno je snižavao ocjene učenika iz siromašnijih škola
- Australija, Robodebt — automatski sustav je neosnovano zahtijevao povrat socijalnih davanja od stotina tisuća građana
- Danska — algoritmi za socijalnu zaštitu donosili pristrane odluke
Međunarodni odjek
Estonija je već prevela i pilotirala ATRS standard za vlastitu javnu upravu. CEIMIA (stručni centar GPAI-ja) radi na međunarodnoj adaptaciji. OECD ocjenjuje ATRS kao “svjetski vodeći” pristup transparentnosti algoritama.
Ključna napetost koju autori ističu: balansiranje transparentnosti s kibernetičkom sigurnošću — previše detalja o algoritmu može ga učiniti ranjivim na manipulaciju.
Ovaj članak generiran je uz pomoć umjetne inteligencije na temelju primarnih izvora.
Povezane vijesti
EU otvara natječaj za AI dezinformacije i deepfake utjecajne kampanje
Europska komisija izdvaja 63,2 milijuna eura za AI u zdravstvu i sigurnosti djece kroz sedam poziva Digital Europe programa
ArXiv: Katalog 195 AI safety benchmarka otkriva fragmentaciju i slabe standarde mjerenja