NVIDIAとGoogle Cloudが共同インフラ上でエージェンティックAIとフィジカルAIの協力を発表
なぜ重要か
NVIDIAとGoogle CloudはNVIDIAのGPUインフラとGoogle Cloudプラットフォームを組み合わせ、ロボティクス、自律型システム、エージェントの分野でエージェンティックAIとフィジカルAIのワークロードを加速する共同協力を発表しました。
ハードウェアとクラウドのワンパッケージ
NVIDIAとGoogle Cloudは、NVIDIAのGPUインフラをGoogle Cloudプラットフォームサービスと組み合わせ、エージェンティックAIとフィジカルAIのワークロードに特化した協力を発表しました。目標は、GPUクラスターとクラウドアプリケーションを手動で接続する必要なく、エンタープライズクライアントに1つの統合された製品を提供することです。
協力はスタック全体をカバーします——低レベルのGPUインフラ(H100、B200、Blackwellシリーズ)から、CUDAソフトウェアレイヤーを経由して、トレーニングと推論のためのGoogle Cloudマネージドサービスまで。クライアントにとって、これは自身でキャパシティプランニングと最適化を行う必要がないため、運用上の負担が少ないことを意味します。
AIの2つの新たな方向性への焦点
「エージェンティックAI」とは、自律的にタスクを実行するソフトウェアエージェントを表します。ユーザーがチャットボットに質問するのではなく、エージェントが目標を受け取り(たとえば「ウィーンへの旅行を予約する」)、必要なサービスを自律的に呼び出します。そのようなエージェントは、タスクごとに多くの推論ラウンドを必要とし、レイテンシ感度が高くなります。
「フィジカルAI」はNVIDIAが積極的に推進するより新しい概念です。物理システムを制御するAIを指します:ロボット、自律型車両、産業ライン、ドローン。フィジカルAIモデルのトレーニングにはリアルなシミュレーションが必要で——NVIDIAのIsacとOmniverseプラットフォームが合成データを生成し、Google Cloudがそれらのシミュレーションにスケーラブルなインフラを提供します。
AWSとMicrosoftへの競合への回答
この協力は競合他社の既存のアレンジメントへの戦略的な回答です。AWSはEC2 GPUインスタンスとBedrockを通じてNVIDIAと強力な関係を持ち、Microsoft AzureはOpenAIと独占的な契約を持っています。Google Cloudはこれまで生成AIにおいて、自社のTPUチップのポジショニングのために市場シェアを失うことが多くありました。
この動きによって、Google CloudはNVIDIA GPUが自社のプラットフォーム上でGoogle TPUと同等に一流のサポートを受けることを明確にしています。CUDAエコシステムをすでに使用しているクライアントはNVIDIAのパフォーマンスを得るためにAWSやAzureに移行する必要がなくなります。
実践者への意味
エージェンティックソリューションやロボティクスに取り組む開発チームにとって、この製品はハードウェア+プラットフォームの組み合わせへのより簡単なアクセスを意味します。マネージドサービスが最も要求の高い部分——GPUクラスター設定、ノード間のネットワーキング、分散トレーニングフレームワーク——をカバーするため、チームはモデルとビジネスロジックに集中できます。
製品と価格の具体的な詳細は、Google Cloud NextとNVIDIA GTCイベントを通じて今後数ヶ月で発表される予定です。早期アクセスはエンタープライズセグメントの選ばれたパートナーが利用できるようになります。
この記事はAIにより一次情報源から生成されました。