Google na Cloud Next '26 predstavio TPU 8i i TPU 8t: specijalizirani čipovi za agentno AI računarstvo
Zašto je bitno
Google je na konferenciji Cloud Next '26 predstavio dvije nove generacije TPU čipova: TPU 8i za inferenciju AI agenata i TPU 8t za trening najsloženijih modela. Potez formalizira podjelu Googleove TPU linije na dvije specijalizirane grane unutar 'agentne ere' računarstva.
Na konferenciji Google Cloud Next ‘26 Google je predstavio dva nova TPU čipa — TPU 8i i TPU 8t — kojima formalizira podjelu svoje linije specijaliziranih AI procesora na dvije paralelne grane. TPU 8i cilja na inferenciju za AI agente, dok je TPU 8t posvećen treningu najsloženijih modela.
Objava dolazi u trenutku kada industrija sve glasnije govori o “agentnoj eri” računarstva — scenariju u kojem AI sustavi ne odgovaraju samo na upite, nego izvršavaju dugotrajne, višekoračne zadatke u ime korisnika. Takav način rada zahtijeva drugačiju hardversku optimizaciju od klasičnog chatbot modela.
Što točno radi TPU 8i?
TPU 8i je inference čip — dizajniran za brzo izvršavanje već treniranih modela u produkciji. Google ga posebno pozicionira kao hardver za agente koji moraju obavljati rezoniranje, planiranje i višekoračne radne tokove bez primjetnog čekanja za korisnika.
Za razliku od klasične inferencije gdje model odgovori jednom pa završi, agentski tokovi generiraju desetke ili stotine poziva modelu unutar jedne korisničke sesije. Svaka milisekunda latencije množi se s brojem koraka, pa TPU 8i teži maksimalnoj propusnosti uz što nižu energiju po inferenciji.
Google ne navodi konkretne brojke u najavi, ali ističe da je čip dio “full-stack” arhitekture — od mreže, podatkovnih centara do energetski učinkovite operacije — čiji je cilj “responzivni agentni AI dostupan masama”.
Zašto je potreban poseban čip za trening?
TPU 8t je optimiziran za trening najsloženijih modela — Google posebno ističe sposobnost pokretanja “i najkompleksnijih modela na jednom, velikom zajedničkom memorijskom skupu”. To je ključno jer moderni frontier modeli (stotine milijardi do trilijuna parametara) više ne stanu u memoriju jednog akceleratora, već zahtijevaju složene tehnike distribucije koje usporavaju trening.
Veliki zajednički memorijski prostor po čipu znači manje komunikacije između čipova tijekom treninga, što u praksi smanjuje vrijeme i trošak treniranja najvećih modela. Za Google to je i konkurentski odgovor na Nvidia Blackwell Ultra i AMD MI400 seriju koji isto ciljaju na taj segment.
Što ovo znači za tržište?
Podjela TPU linije na inferenciju i trening nije nova industrijska praksa — i Nvidia i AWS već dijele svoje akceleratore. Ali Googleova formalna objava dva čipa istog dana ukazuje na to da kompanija očekuje da će sljedeće dvije godine inferencija (agentska) biti dominantan segment rasta, dok trening ostaje važan ali manji dio ukupnog AI računalnog tržišta.
Za Google Cloud korisnike to znači preciznije biranje hardvera prema radnom opterećenju: TPU 8i za produkcijske agentske aplikacije, TPU 8t za istraživačke timove koji treniraju vlastite velike modele. Konkretne cijene, dostupnost i usporedbe s prethodnim generacijama TPU-a očekuju se u nadolazećim tehničkim objavama.
Ovaj članak generiran je uz pomoć umjetne inteligencije na temelju primarnih izvora.
Povezane vijesti
Gemma 4 pokrenut kao Vision Language Agent lokalno na Jetson Orin Nano Super
NVIDIA i Google Cloud najavili suradnju za agentic AI i physical AI na zajedničkoj infrastrukturi
Google predstavio 8. generaciju TPU čipova: dvije specijalizirane varijante za agentic AI eru