🤖 24 AI
🟢 🔧 硬件 2026年4月24日星期五 · 2 分钟阅读

Google在Cloud Next '26发布TPU 8i和TPU 8t:面向智能体AI计算的专用芯片

编辑插图:Google TPU 8i和8t——专用AI芯片

为什么重要

Google在Cloud Next '26大会上发布了两款新一代TPU芯片:面向AI智能体推理的TPU 8i和面向最复杂模型训练的TPU 8t。此举正式将Google的TPU产品线划分为「智能体时代」计算的两个专业分支。

Google Cloud Next ‘26大会上,Google发布了两款全新TPU芯片——TPU 8iTPU 8t——正式将旗下专用AI处理器产品线划分为两个并行分支。TPU 8i面向AI智能体推理,TPU 8t则专注于最复杂模型的训练

此次发布恰逢业界对「智能体时代」计算的讨论日益高涨——在这一场景中,AI系统不仅响应查询,更代替用户执行持续的多步骤任务。这种工作模式与传统聊天机器人模型相比,需要截然不同的硬件优化。

TPU 8i具体能做什么?

TPU 8i是推理芯片——专为在生产环境中快速执行已训练模型而设计。Google将其特别定位为面向智能体的硬件,这些智能体需要执行推理、规划和多步骤工作流,同时不让用户等待。

与传统推理中模型一次性响应后结束不同,智能体工作流在单次用户会话内可能触发数十乃至数百次模型调用。每毫秒的延迟随步骤数倍增,因此TPU 8i的目标是在最低能耗下实现最大吞吐量。

Google在发布信息中未公布具体数字,但强调该芯片是**「全栈」架构**的一部分——从网络、数据中心到节能运营——目标是让「响应式智能体AI触达大众」。

为何需要专门的训练芯片?

TPU 8t针对最复杂模型的训练进行了优化——Google特别强调其能够在「单一大型统一内存池上运行最复杂的模型」。这一点至关重要,因为现代前沿模型(数千亿至数万亿参数)已无法存入单个加速器的内存,需要复杂的分布式技术,而这会拖慢训练进度。

每个芯片拥有更大的统一内存空间意味着训练期间芯片间通信减少,在实践中可缩短训练最大规模模型的时间和成本。对Google而言,这也是对同样瞄准这一市场的Nvidia Blackwell Ultra和AMD MI400系列的竞争回应。

这对市场意味着什么?

将TPU产品线分为推理和训练并非行业新鲜事——Nvidia和AWS已有类似做法。但Google同日正式发布两款芯片表明,该公司预计未来两年推理(智能体)将成为主要增长领域,而训练虽然重要,但在AI计算总市场中占比将相对较小。

对Google Cloud用户而言,这意味着可以根据工作负载更精准地选择硬件:TPU 8i用于生产级智能体应用,TPU 8t用于训练大型自有模型的研究团队。具体定价、供货时间以及与前代TPU的性能对比,预计将在后续技术公告中公布。

🤖

本文由人工智能基于一手来源生成。