🤖 24 AI
🟡 🔧 Hardware Donnerstag, 23. April 2026 · 2 Min. Lesezeit

NVIDIA und Google Cloud kündigen Zusammenarbeit für Agentic AI und Physical AI auf gemeinsamer Infrastruktur an

Editorial illustration: AI čip — hardware

Warum es wichtig ist

NVIDIA und Google Cloud haben eine gemeinsame Zusammenarbeit angekündigt, um Agentic-AI- und Physical-AI-Workloads zu beschleunigen — dabei wird NVIDIAs GPU-Infrastruktur mit der Google Cloud Platform für Robotik, autonome Systeme und Agenten kombiniert.

Hardware und Cloud in einem Paket

NVIDIA und Google Cloud haben eine Zusammenarbeit angekündigt, die NVIDIAs GPU-Infrastruktur mit den Plattformdiensten von Google Cloud für Agentic-AI- und Physical-AI-Workloads kombiniert. Ziel ist es, Enterprise-Kunden ein integriertes Angebot zu machen, anstatt sie dazu zu zwingen, GPU-Cluster manuell mit Cloud-Anwendungen zu verbinden.

Die Zusammenarbeit deckt den gesamten Stack ab — von der Low-Level-GPU-Infrastruktur (H100, B200 und die Blackwell-Generation), über die CUDA-Softwareschicht, bis hin zu den Google Cloud Managed Services für Training und Inferenz. Für Kunden bedeutet das weniger operativen Aufwand, da sie Kapazitätsplanung und Optimierung nicht selbst vornehmen müssen.

Fokus auf zwei neue KI-Kategorien

Der Begriff „Agentic AI” beschreibt autonome Software-Agenten, die Aufgaben selbstständig ausführen. Anstatt dass ein Nutzer einem Chatbot Fragen stellt, erhält der Agent ein Ziel (zum Beispiel „buche eine Reise nach Wien”) und ruft selbstständig die benötigten Dienste auf. Solche Agenten erfordern mehr Inferenz-Durchläufe pro Aufgabe und eine höhere Latenzempfindlichkeit.

„Physical AI” ist ein neuerer Begriff, den NVIDIA aktiv fördert. Gemeint ist KI, die physische Systeme steuert: Roboter, autonome Fahrzeuge, Industrieanlagen und Drohnen. Das Training von Physical-AI-Modellen erfordert realistische Simulationen — NVIDIAs Isaac- und Omniverse-Plattformen generieren synthetische Daten, während Google Cloud die skalierbare Infrastruktur für diese Simulationen bereitstellt.

Wettbewerb mit AWS und Microsoft

Die Zusammenarbeit ist eine strategische Antwort auf bestehende Arrangements der Konkurrenz. AWS hat eine starke Beziehung zu NVIDIA über EC2-GPU-Instanzen und Bedrock, während Microsoft Azure exklusive Vereinbarungen mit OpenAI hat. Google Cloud hat bei generativer KI traditionell Marktanteile verloren, bedingt durch die Positionierung seiner eigenen TPU-Chips.

Mit diesem Schritt macht Google Cloud deutlich, dass NVIDIA-GPUs auf seiner Plattform erstklassige Unterstützung genießen — gleichberechtigt mit Googles TPUs. Kunden, die bereits das CUDA-Ökosystem nutzen, müssen nicht mehr zu AWS oder Azure wechseln, um NVIDIA-Performance zu erhalten.

Was das für Praktiker bedeutet

Für Entwicklungsteams, die an Agentic-Lösungen oder Robotik arbeiten, bedeutet das Angebot einen einfacheren Zugang zur Kombination aus Hardware und Plattform. Managed Services decken den anspruchsvollsten Teil ab — die Konfiguration von GPU-Clustern, das Networking zwischen Knoten, verteilte Training-Frameworks — sodass sich Teams auf Modell und Geschäftslogik konzentrieren können.

Konkrete Details zu Produkten und Preisen werden in den kommenden Monaten über die Veranstaltungen Google Cloud Next und NVIDIA GTC bekannt gegeben. Early Access wird ausgewählten Enterprise-Partnern zur Verfügung stehen.

🤖

Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.