🤖 24 AI
🟡 🔧 硬件 2026年4月23日星期四 · 2 分钟阅读

NVIDIA与Google Cloud宣布在共同基础设施上合作推进智能体AI和实体AI

编辑插图:AI芯片——hardware

为什么重要

NVIDIA和Google Cloud宣布合作,将NVIDIA GPU基础设施与Google Cloud平台相结合,加速机器人、自主系统和智能体领域的智能体AI和实体AI工作负载。

硬件与云的一体化打包

NVIDIA和Google Cloud宣布了一项合作,将NVIDIA GPU基础设施与Google Cloud平台服务相结合,专注于智能体AI和实体AI工作负载。目标是为企业客户提供一个集成产品,而无需手动将GPU集群与云应用程序连接起来。

合作覆盖整个技术栈——从低级GPU基础设施(H100、B200和Blackwell系列),通过CUDA软件层,到用于训练和推理的Google Cloud托管服务。对客户而言,这意味着更少的运营工作,因为他们不必自己进行容量规划和优化。

聚焦AI的两个新方向

“智能体AI”描述的是自主执行任务的软件智能体。用户不再向聊天机器人提问,而是智能体接收目标(例如”预订前往维也纳的行程”)并自主调用所需服务。此类智能体每个任务需要更多推理轮次和更高的延迟敏感性。

“实体AI”是NVIDIA积极推广的一个较新概念。它指控制物理系统的AI:机器人、自动驾驶车辆、工业生产线和无人机。训练实体AI模型需要逼真的仿真——NVIDIA Isaac和Omniverse平台生成合成数据,而Google Cloud为这些仿真提供可扩展的基础设施。

与AWS和微软的竞争

这次合作是对竞争对手现有安排的战略回应。AWS通过EC2 GPU实例和Bedrock与NVIDIA建立了强大关系,而微软Azure与OpenAI有独家协议。Google Cloud在生成式AI方面传统上因其TPU芯片定位而失去市场份额。

通过这一举措,Google Cloud明确表示NVIDIA GPU在其平台上享有与Google TPU同等的一流支持。已经使用CUDA生态系统的客户不再需要逃往AWS或Azure来获得NVIDIA性能。

对实践者的意义

对于从事智能体解决方案或机器人技术的开发团队,这一产品意味着更简便地获取硬件+平台的组合。托管服务涵盖了最复杂的部分——GPU集群配置、节点间网络、分布式训练框架——使团队可以专注于模型和业务逻辑。

产品和定价的具体细节将在未来几个月通过Google Cloud Next和NVIDIA GTC活动公布。精选企业合作伙伴将获得早期访问权限。

🤖

本文由人工智能基于一手来源生成。