🤖 24 AI
🟡 🔧 Hardware četvrtak, 23. travnja 2026. · 2 min čitanja

NVIDIA i Google Cloud najavili suradnju za agentic AI i physical AI na zajedničkoj infrastrukturi

Editorial illustration: AI čip — hardware

Zašto je bitno

NVIDIA i Google Cloud objavili su zajedničku suradnju za ubrzavanje agentic AI i physical AI radnih opterećenja, kombinirajući NVIDIA GPU infrastrukturu s Google Cloud platformom za robotiku, autonomne sustave i agente.

Hardware i cloud u jednom paketu

NVIDIA i Google Cloud objavili su suradnju koja kombinira NVIDIA GPU infrastrukturu s Google Cloud platformskim servisima za agentic AI i physical AI workloade. Cilj je ponuditi enterprise klijentima jednu integriranu ponudu umjesto da moraju ručno povezivati GPU klastere s cloud aplikacijama.

Suradnja pokriva cijeli stack — od low-level GPU infrastrukture (H100, B200 i Blackwell generacije), preko CUDA software sloja, do Google Cloud managed servisa za trening i inference. Za klijente to znači manje operativnog posla jer ne moraju sami raditi kapacitetno planiranje i optimizaciju.

Fokus na dva nova valiza AI-ja

Pojam “agentic AI” opisuje autonomne softverske agente koji samostalno izvršavaju zadatke. Umjesto da korisnik postavlja pitanja chatbotu, agent prima cilj (primjerice “rezerviraj put u Beč”) i samostalno poziva potrebne servise. Takvi agenti zahtijevaju više inference runova po zadatku i veću latencijsku osjetljivost.

“Physical AI” je noviji pojam koji NVIDIA aktivno promovira. Riječ je o AI-u koji kontrolira fizičke sustave: robote, autonomna vozila, industrijske linije i dronove. Treniranje physical AI modela zahtijeva realistične simulacije — NVIDIA Isaac i Omniverse platforme generiraju sintetičke podatke, a Google Cloud pruža skalabilnu infrastrukturu za te simulacije.

Konkurencija AWS-u i Microsoftu

Suradnja je strateški odgovor na postojeće aranžmane konkurencije. AWS ima snažan odnos s NVIDIA-om kroz EC2 GPU instance i Bedrock, dok Microsoft Azure ima ekskluzivne ugovore s OpenAI-em. Google Cloud je kod generativnog AI-a tradicionalno gubio tržišni udio zbog pozicioniranja vlastitih TPU čipova.

Ovim potezom Google Cloud jasno poručuje da NVIDIA GPU-i imaju prvoklasnu potporu na njegovoj platformi, ravnopravno s Google-ovim TPU-ovima. Klijenti koji već koriste CUDA ekosustav ne moraju više bježati na AWS ili Azure da bi dobili NVIDIA performanse.

Što donosi praktičarima

Za razvojne timove koji rade na agentic rješenjima ili robotici, ponuda znači jednostavniji pristup kombinaciji hardware + platforma. Managed servisi pokrivaju najzahtjevniji dio — konfiguraciju GPU klastera, networking između čvorova, distribuirane trening frameworke — tako da se timovi mogu fokusirati na model i poslovnu logiku.

Konkretni detalji o proizvodima i cijenama bit će objavljeni u narednim mjesecima kroz Google Cloud Next i NVIDIA GTC događanja. Rani pristup bit će dostupan odabranim partnerima iz enterprise segmenta.

🤖

Ovaj članak generiran je uz pomoć umjetne inteligencije na temelju primarnih izvora.