Modeli

Generativni predtrenirani transformator (GPT)

Obitelj transformer jezičnih modela samo-dekoderskog tipa, predtrenirani na ogromnim tekstovima i fino podešeni za upute; arhitektura iza ChatGPT-a i sličnih.

Generativni predtrenirani transformator (GPT) je klasa velikih jezičnih modela koja koristi samo-dekoderski transformer treniran u dvije faze. Prvo se model predtrenira na ogromnom korpusu internetskog teksta s jednostavnim ciljem — predvidjeti sljedeći token. Zatim se prilagođava praćenju uputa kroz fino podešavanje, nadzirane demonstracije i potkrepljivačko učenje iz ljudskih povratnih informacija.

OpenAI je predstavio originalni GPT 2018., skalirao ga kroz GPT-2 (2019.), GPT-3 (2020.), GPT-3.5 — koji je pogonio prvi ChatGPT krajem 2022. — i generacije GPT-4 / GPT-4o / GPT-5. Svaki je korak povećao broj parametara, količinu podataka i veličinu konteksta, dok su metode unaprijedile rezoniranje, multimodalnost i korištenje alata.

GPT recept postao je dominantan obrazac industrije. Claude, Gemini, Llama, Mistral, DeepSeek i Qwen su svi samo-dekoderski transformeri trenirani vrlo sličnim ciljevima, premda se težine i inženjerska rješenja razlikuju.

U svakodnevnoj upotrebi “GPT” ponekad označava usko OpenAI-jeve modele, a ponekad široko cijelu obitelj dekoderskih LLM-ova — pojam je preopterećen, ali nedvojbeno središnji za suvremeni AI.

Izvori

Vidi također