NVIDIA und Google Cloud kündigen Zusammenarbeit für Agentic AI und Physical AI auf gemeinsamer Infrastruktur an
Warum es wichtig ist
NVIDIA und Google Cloud haben eine gemeinsame Zusammenarbeit angekündigt, um Agentic-AI- und Physical-AI-Workloads zu beschleunigen — dabei wird NVIDIAs GPU-Infrastruktur mit der Google Cloud Platform für Robotik, autonome Systeme und Agenten kombiniert.
Hardware und Cloud in einem Paket
NVIDIA und Google Cloud haben eine Zusammenarbeit angekündigt, die NVIDIAs GPU-Infrastruktur mit den Plattformdiensten von Google Cloud für Agentic-AI- und Physical-AI-Workloads kombiniert. Ziel ist es, Enterprise-Kunden ein integriertes Angebot zu machen, anstatt sie dazu zu zwingen, GPU-Cluster manuell mit Cloud-Anwendungen zu verbinden.
Die Zusammenarbeit deckt den gesamten Stack ab — von der Low-Level-GPU-Infrastruktur (H100, B200 und die Blackwell-Generation), über die CUDA-Softwareschicht, bis hin zu den Google Cloud Managed Services für Training und Inferenz. Für Kunden bedeutet das weniger operativen Aufwand, da sie Kapazitätsplanung und Optimierung nicht selbst vornehmen müssen.
Fokus auf zwei neue KI-Kategorien
Der Begriff „Agentic AI” beschreibt autonome Software-Agenten, die Aufgaben selbstständig ausführen. Anstatt dass ein Nutzer einem Chatbot Fragen stellt, erhält der Agent ein Ziel (zum Beispiel „buche eine Reise nach Wien”) und ruft selbstständig die benötigten Dienste auf. Solche Agenten erfordern mehr Inferenz-Durchläufe pro Aufgabe und eine höhere Latenzempfindlichkeit.
„Physical AI” ist ein neuerer Begriff, den NVIDIA aktiv fördert. Gemeint ist KI, die physische Systeme steuert: Roboter, autonome Fahrzeuge, Industrieanlagen und Drohnen. Das Training von Physical-AI-Modellen erfordert realistische Simulationen — NVIDIAs Isaac- und Omniverse-Plattformen generieren synthetische Daten, während Google Cloud die skalierbare Infrastruktur für diese Simulationen bereitstellt.
Wettbewerb mit AWS und Microsoft
Die Zusammenarbeit ist eine strategische Antwort auf bestehende Arrangements der Konkurrenz. AWS hat eine starke Beziehung zu NVIDIA über EC2-GPU-Instanzen und Bedrock, während Microsoft Azure exklusive Vereinbarungen mit OpenAI hat. Google Cloud hat bei generativer KI traditionell Marktanteile verloren, bedingt durch die Positionierung seiner eigenen TPU-Chips.
Mit diesem Schritt macht Google Cloud deutlich, dass NVIDIA-GPUs auf seiner Plattform erstklassige Unterstützung genießen — gleichberechtigt mit Googles TPUs. Kunden, die bereits das CUDA-Ökosystem nutzen, müssen nicht mehr zu AWS oder Azure wechseln, um NVIDIA-Performance zu erhalten.
Was das für Praktiker bedeutet
Für Entwicklungsteams, die an Agentic-Lösungen oder Robotik arbeiten, bedeutet das Angebot einen einfacheren Zugang zur Kombination aus Hardware und Plattform. Managed Services decken den anspruchsvollsten Teil ab — die Konfiguration von GPU-Clustern, das Networking zwischen Knoten, verteilte Training-Frameworks — sodass sich Teams auf Modell und Geschäftslogik konzentrieren können.
Konkrete Details zu Produkten und Preisen werden in den kommenden Monaten über die Veranstaltungen Google Cloud Next und NVIDIA GTC bekannt gegeben. Early Access wird ausgewählten Enterprise-Partnern zur Verfügung stehen.
Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.
Verwandte Nachrichten
Gemma 4 läuft als Vision Language Agent lokal auf Jetson Orin Nano Super
Google stellt 8. TPU-Generation vor: zwei spezialisierte Varianten für die Ära der agentischen KI
AWS G7e Blackwell-Instanzen: Qwen3-32B auf SageMaker für 0,41 $ pro Million Tokens — 4× günstigere Inferenz