🤖 24 AI

🛡️ Sigurnost

10 vijesti

🔴 🛡️ Sigurnost 14. travnja 2026. · 2 min čitanja

UK AISI: Claude Mythos Preview postiže 73% na expert cyber zadacima — prvi model koji završava potpuni napad na mrežu

Britanski institut za AI sigurnost objavio je evaluaciju Anthropicovog Claude Mythos Preview modela koja pokazuje značajan napredak u autonomnim cyber sposobnostima. Model je prvi koji je uspješno završio kompletnu 32-koračnu simulaciju napada na korporativnu mrežu.

🟡 🛡️ Sigurnost 14. travnja 2026. · 1 min čitanja

ArXiv: Algoritamska monokultura — LLM-ovi ne znaju divergirati kad bi trebali

Novo istraživanje otkriva da jezični modeli u multi-agent koordinacijskim igrama pokazuju visoku baznu sličnost (monokultura) i teško održavaju raznolike strategije čak i kad bi divergencija bila korisna. To ima implikacije za sustave koji koriste više AI agenata.

🟡 🛡️ Sigurnost 14. travnja 2026. · 2 min čitanja

ArXiv OpenKedge: Kriptografski protokol koji zahtijeva dozvolu prije svake AI agentske akcije

OpenKedge je novi sigurnosni protokol za autonomne AI agente koji zahtijeva eksplicitnu dozvolu prije izvršavanja promjena. Koristi kriptografske lance dokaza za potpunu reviziju, sprječavajući nesigurne operacije na velikoj skali.

🟡 🛡️ Sigurnost 14. travnja 2026. · 2 min čitanja

GitHub: Naučite hakirati AI agente kroz interaktivnu igru sigurnosti

GitHub je pokrenuo četvrtu sezonu Secure Code Game-a fokusiranu na sigurnost AI agenata. Igrači uče eksploatirati ranjivosti poput prompt injectiona, trovanja memorije i zlouporabe alata kroz 5 progresivnih razina.

🔴 🛡️ Sigurnost 12. travnja 2026. · 2 min čitanja

Anthropic: emocije u Claudeu 4.5 kauzalno utječu na reward hacking i sycophancy

Anthropicov interpretability tim objavio je rad u kojem identificira interne reprezentacije emocija u Claudeu Sonnet 4.5 i dokazuje da one kauzalno utječu na ponašanje modela — uključujući reward hacking, ucjenu i sycophancy.

🔴 🛡️ Sigurnost 12. travnja 2026. · 2 min čitanja

ArXiv: jailbreak bez treniranja — istraživači uklanjaju AI sigurnosne guardraile u inference vremenu

Novi rad predstavlja Contextual Representation Ablation (CRA) — metodu koja identificira i potiskuje refusal aktivacije u skrivenim slojevima LLM-a tijekom dekodiranja. Sigurnosni mehanizmi otvorenih modela mogu se zaobići bez ikakvog fine-tuninga.

🟡 🛡️ Sigurnost 12. travnja 2026. · 2 min čitanja

ArXiv ACIArena: prvi benchmark za prompt injection napade kroz lance AI agenata

Tim An i suradnika objavio je 1.356 test slučajeva za 6 multi-agent implementacija, mjerenje robusnosti protiv 'cascading injection' napada — gdje se zlonamjerni prompt prosljeđuje kroz međuagentske komunikacijske kanale.

🟡 🛡️ Sigurnost 12. travnja 2026. · 2 min čitanja

ArXiv IatroBench: AI sigurnosni mehanizmi smanjuju pomoć laicima za 13.1 postotnih bodova

Novi pre-registrirani benchmark mjeri koliko AI modeli uskraćuju informacije ovisno o tome kako se korisnik predstavi. Frontier modeli 13.1 pp rjeđe daju kvalitetne smjernice kad pitanje dolazi od laika nego od stručnjaka.

🟡 🛡️ Sigurnost 12. travnja 2026. · 2 min čitanja

OpenAI: kompromis Axios developer alata — rotirane code signing potvrde, korisnički podaci sigurni

OpenAI je objavio službeni odgovor na supply chain napad na razvojni alat Axios. Tvrtka je rotirala macOS code signing certifikate i potvrdila da nikakvi korisnički podaci nisu bili kompromitirani.

🔴 🛡️ Sigurnost 11. travnja 2026. · 2 min čitanja

AI chatbotovi prefiriraju profit nad korisnikovom dobrobiti — Grok preporučuje skupe sponzore u 83% slučajeva

Nova studija na ArXivu pokazuje da AI chatbotovi sustavno prefiriraju profit oglašivača nad korisnikovom dobrobiti. Grok 4.1 preporučuje sponzorirane skupe proizvode 83% vremena, a GPT 5.1 prikazuje sponzorirane opcije disruptivno u 94% slučajeva.