🤖 24 AI
🟡 🔧 하드웨어 2026년 4월 23일 목요일 · 2 분 읽기

NVIDIA와 Google Cloud, 공동 인프라에서 에이전트 AI 및 피지컬 AI 협력 발표

에디토리얼 일러스트: AI 칩——hardware

왜 중요한가

NVIDIA와 Google Cloud는 NVIDIA GPU 인프라와 Google Cloud 플랫폼을 결합하여 로보틱스, 자율 시스템, 에이전트 분야의 에이전트 AI 및 피지컬 AI 워크로드를 가속화하는 공동 협력을 발표했습니다.

하드웨어와 클라우드를 하나의 패키지로

NVIDIA와 Google Cloud는 NVIDIA GPU 인프라를 Google Cloud 플랫폼 서비스와 결합하여 에이전트 AI와 피지컬 AI 워크로드에 특화된 협력을 발표했습니다. 목표는 GPU 클러스터를 클라우드 애플리케이션과 수동으로 연결할 필요 없이 엔터프라이즈 고객에게 하나의 통합된 제품을 제공하는 것입니다.

협력은 전체 스택을 커버합니다——저수준 GPU 인프라(H100, B200, Blackwell 세대)부터 CUDA 소프트웨어 레이어를 거쳐 훈련 및 추론을 위한 Google Cloud 관리형 서비스까지. 고객에게 이는 스스로 용량 계획 및 최적화를 수행할 필요가 없어 운영 부담이 줄어듦을 의미합니다.

AI의 두 가지 새로운 방향에 집중

“에이전트 AI”는 작업을 자율적으로 수행하는 소프트웨어 에이전트를 설명합니다. 사용자가 챗봇에 질문하는 대신 에이전트가 목표를 받고(예: “빈으로 여행 예약”) 필요한 서비스를 자율적으로 호출합니다. 이러한 에이전트는 작업당 더 많은 추론 실행과 높은 지연 시간 민감성이 필요합니다.

“피지컬 AI”는 NVIDIA가 적극적으로 홍보하는 더 새로운 개념입니다. 물리적 시스템을 제어하는 AI를 지칭합니다: 로봇, 자율 주행 차량, 산업 라인, 드론. 피지컬 AI 모델 훈련에는 현실적인 시뮬레이션이 필요합니다——NVIDIA의 Isaac과 Omniverse 플랫폼이 합성 데이터를 생성하고, Google Cloud가 이러한 시뮬레이션을 위한 확장 가능한 인프라를 제공합니다.

AWS와 Microsoft에 대한 경쟁

이 협력은 경쟁사의 기존 협약에 대한 전략적 대응입니다. AWS는 EC2 GPU 인스턴스와 Bedrock을 통해 NVIDIA와 강력한 관계를 갖고 있으며, Microsoft Azure는 OpenAI와 독점 계약을 맺고 있습니다. Google Cloud는 생성형 AI에서 자체 TPU 칩 포지셔닝으로 인해 전통적으로 시장 점유율을 잃어왔습니다.

이 움직임을 통해 Google Cloud는 NVIDIA GPU가 자사 플랫폼에서 Google TPU와 동등하게 일류 지원을 받음을 명확히 합니다. 이미 CUDA 에코시스템을 사용하는 고객들은 NVIDIA 성능을 얻기 위해 AWS나 Azure로 이동할 필요가 없어집니다.

실무자에게 의미하는 것

에이전트 솔루션이나 로보틱스를 연구하는 개발 팀에게 이 제품은 하드웨어+플랫폼 조합에 더 쉽게 접근할 수 있음을 의미합니다. 관리형 서비스가 가장 까다로운 부분——GPU 클러스터 구성, 노드 간 네트워킹, 분산 훈련 프레임워크——을 커버하여 팀은 모델과 비즈니스 로직에 집중할 수 있습니다.

제품과 가격에 대한 구체적인 세부 사항은 Google Cloud Next와 NVIDIA GTC 이벤트를 통해 향후 몇 달 내에 발표될 예정입니다. 조기 접근은 엔터프라이즈 부문의 선별된 파트너에게 제공될 것입니다.

🤖

이 기사는 AI가 1차 출처를 기반으로 생성했습니다.