⚖️ Regulacija

11 vijesti

🟡 ⚖️ Regulacija 28. travnja 2026. · 4 min čitanja

LangChain i LangSmith ciljaju EU AI Act: alati za sukladnost prema člancima 9, 10, 12-15 i 72 do roka 2. kolovoza 2026.

Stilizirani prikaz EU regulatornog okvira u obliku slojeva sa zvjezdicama i compliance ikonama, povezan s LangSmith dashboard tracing prikazom.

LangChain je objavio kako LangSmith i LangChain OSS pokrivaju ključne članke EU AI Acta — od risk managementa (čl. 9) do post-market monitoringa (čl. 72). Rok za visokorizične AI sustave je 2. kolovoza 2026., a kazne dosežu 15 milijuna eura ili 3% globalnog godišnjeg prihoda.

🟡 ⚖️ Regulacija 28. travnja 2026. · 3 min čitanja

OpenAI dobio FedRAMP Moderate autorizaciju: ChatGPT Enterprise i API otvoreni za sigurno usvajanje u američkim federalnim agencijama

Stilizirani prikaz vladine zgrade okružene digitalnim zaštitnim slojevima i compliance pečatima koji simboliziraju FedRAMP Moderate autorizaciju.

OpenAI je 27. travnja 2026. objavio FedRAMP Moderate autorizaciju za ChatGPT Enterprise i OpenAI API. Time se otvara mogućnost sigurnog usvajanja generativne AI tehnologije u američkim federalnim agencijama, na razini compliance-a koja pokriva osjetljive ali ne-klasificirane podatke.

🟡 ⚖️ Regulacija 27. travnja 2026. · 3 min čitanja

arXiv:2604.21571 'Separable Expert': arhitektura za LLM personalizaciju koja omogućuje GDPR pravo na zaborav bez retreniranja

ArXiv 2604.21571 'Separable Expert': arhitektura za LLM personalizaciju koja omogućuje GDPR pravo na zaborav bez re...

Chris Schneider, Philipp Schoenegger i Ben Bariach objavili su 23. travnja 2026. paper 'Separable Expert Architecture' koji rješava jedan od najvećih GDPR problema personaliziranih LLM-ova: kako obrisati podatke pojedinačnog korisnika bez retreniranja cijelog modela. Trolayer arhitektura (statična baza, composable LoRA adapteri, per-user proxy artefakti) pretvara unlearning u deterministički delete operaciju. Evaluirano na Phi-3.5-mini i Llama-3.1-8B.

🟢 ⚖️ Regulacija 27. travnja 2026. · 4 min čitanja

Google DeepMind i Južna Koreja osnivaju AI Campus u Seulu deset godina nakon AlphaGo meča

Google DeepMind i Korejsko ministarstvo znanosti potpisuju partnerstvo za AI istraživanje i osnivanje AI Campusa u Seulu

Google DeepMind i korejsko Ministarstvo znanosti i ICT-a (MSIT) objavili su 27. travnja 2026. partnerstvo za ubrzavanje znanstvenih otkrića i AI inovacija. Suradnja uključuje osnivanje AI Campusa u Seulu, pristup naprednijim AI alatima poput AlphaFolda i AlphaGenomea za akademske institucije te suradnju s korejskim AI Safety Institutom na pitanjima sigurnosti.

🟡 ⚖️ Regulacija 22. travnja 2026. · 3 min čitanja

EU otvara natječaj za AI dezinformacije i deepfake utjecajne kampanje

Editorial ilustracija: Vaga pravde s razbijenim ekranom i robotskom rukom, EU borba protiv AI dezinformacija

Europska komisija otvorila je poziv DIGITAL-2026-BESTUSE-AWARENESS vrijedan 6 milijuna eura za izradu zajedničkog istraživačkog okvira protiv manipulativnog AI sadržaja. Natječaj isporučuje Europski demokratski štit najavljen u studenom 2025. i traži prijave do 1. listopada 2026.

🟡 ⚖️ Regulacija 21. travnja 2026. · 3 min čitanja

Europska komisija izdvaja 63,2 milijuna eura za AI u zdravstvu i sigurnosti djece kroz sedam poziva Digital Europe programa

Editorial illustration: Europska komisija izdvaja 63,2 milijuna eura za AI u zdravstvu i sigurnosti djece kroz sedam poziva Digital Eu

Europska komisija otvorila je sedam poziva ukupne vrijednosti 63,2 milijuna eura kroz Digital Europe Programme. Sredstva su namijenjena AI inovacijama u zdravstvu (rak, srčane bolesti), online sigurnosti djece i alatima za regulatore, a dio su šireg AI Continent Action Plana.

🟡 ⚖️ Regulacija 16. travnja 2026. · 2 min čitanja

ArXiv: Katalog 195 AI safety benchmarka otkriva fragmentaciju i slabe standarde mjerenja

AISafetyBenchExplorer je strukturirani katalog koji dokumentira 195 AI safety benchmarka objavljenih između 2018. i 2026. godine. Istraživanje otkriva alarmantnu fragmentaciju u polju — pojmovi poput 'accuracy' i 'safety score' skrivaju potpuno različite metodologije. Od 195 benchmarka, čak 165 evaluira samo engleski jezik, a 137 ima neaktivne GitHub repozitorije, ukazujući na nedostatak održavanja nakon objave.

🟢 ⚖️ Regulacija 15. travnja 2026. · 1 min čitanja

OECD: Velika Britanija postavlja globalni standard za transparentnost vladinih algoritama

OECD analizira britanski Algorithmic Transparency Recording Standard (ATRS) koji je od 2025. obavezan za središnju vladu. Do ožujka 2025. objavljeno je 125 zapisa o korištenju algoritama. Estonija je već preuzela standard, a OECD ga naziva 'svjetski vodećim'.

🟡 ⚖️ Regulacija 14. travnja 2026. · 2 min čitanja

Anthropic: LTBT Trust sada ima većinu u upravnom odboru — imenovan bivši CEO Novartisa

Anthropic je objavio imenovanje Vasa Narasimhana, CEO-a Novartisa, u upravni odbor kroz Long-Term Benefit Trust. LTBT-ovi direktori sada čine većinu odbora, čime se jača nadzor nad sigurnosnom misijom kompanije.

🟡 ⚖️ Regulacija 12. travnja 2026. · 2 min čitanja

ArXiv: matematički dokaz nemogućnosti potpune odgovornosti u ljudsko-AI kolektivima

Istraživač Tibebu dokazuje formalan impossibility rezultat: iznad određenog praga autonomije AI agenata, ne mogu istovremeno vrijediti sva četiri svojstva odgovornosti u sustavima koji kombiniraju ljude i AI.

🔴 ⚖️ Regulacija 10. travnja 2026. · 2 min čitanja

EU AI Office objavio prvi godišnji izvještaj: 19 AI tvornica i milijarda eura za primjenu AI-a

Europska komisija obilježila je godinu dana od pokretanja AI Continent Action Plana objavom rezultata: 19 AI tvornica deployano je preko europskih superračunala, 13 regionalnih AI Factory antena pruža lokalni pristup, a 1 milijardu eura osigurano je za Apply AI Strategy inicijative.