Temelji
Veliki jezični model
Neuronska mreža trenirana na ogromnim količinama teksta koja predviđa i generira ljudski jezik; temelj suvremenih AI asistenata poput ChatGPT-a, Claudea i Geminija.
Veliki jezični model (LLM, Large Language Model) je duboka neuronska mreža — gotovo uvijek temeljena na transformer arhitekturi — trenirana na stotinama milijardi do trilijuna riječi iz knjiga, članaka, web stranica i koda. Nakon treniranja, model enkodira statističke uzorke ljudskog jezika i može generirati koherentan tekst kao odgovor na upit, odgovarati na pitanja, sažimati dokumente, prevoditi i pisati kod.
LLM-ovi ne “razumiju” u ljudskom smislu. Oni predviđaju najvjerojatniji sljedeći token na osnovu prethodnog konteksta, ponovljeno tisućama puta kako bi sastavili rečenice i paragrafe. Iluzija razmišljanja proizlazi iz skale i raznolikosti uzoraka apsorbiranih tijekom treniranja.
Pojam je u mainstream ušao 2022. godine s lansiranjem ChatGPT-a. Danas “LLM” opisuje modele s nekoliko milijardi do preko trilijun parametara, dostupne preko API-ja (GPT-5, Claude, Gemini), kao otvorene težine (Llama, Mistral, DeepSeek), ili kroz lokalne runtime-ove (Ollama, llama.cpp).
LLM-ovi su podloga za gotovo svaki AI proizvod o kojem pišemo — agenti, chat asistenti, RAG sustavi i modeli rezoniranja svi grade na vrhu LLM-a.