GoogleがCloud Next '26でTPU 8iとTPU 8tを発表:エージェントAIコンピューティング向け専用チップ
なぜ重要か
GoogleはCloud Next '26カンファレンスでTPU 8i(AIエージェント推論用)とTPU 8t(最も複雑なモデルのトレーニング用)という2つの新世代TPUチップを発表しました。この動きはGoogleのTPUラインを「エージェント時代」のコンピューティングにおける2つの専門的なブランチに正式に分割するものです。
Google Cloud Next ‘26カンファレンスで、Googleは2つの新しいTPUチップ——TPU 8iとTPU 8t——を発表し、専用AIプロセッサのラインを2つの並行ブランチに正式に分割しました。TPU 8iはAIエージェントの推論を目標とし、TPU 8tは最も複雑なモデルのトレーニングに専念します。
この発表は、業界が「エージェント時代」のコンピューティングをますます声高に語る時期に登場しました——このシナリオでは、AIシステムはクエリに答えるだけでなく、ユーザーの代わりに長期間にわたる多段階のタスクを実行します。このような動作は、古典的なチャットボットモデルとは異なるハードウェア最適化を必要とします。
TPU 8iは具体的に何をするか?
TPU 8iは推論チップ——すでにトレーニングされたモデルを本番環境で高速に実行するために設計されています。Googleはこれを特に、推論、計画、多段階ワークフローをユーザーが待たずに実行する必要があるエージェント向けのハードウェアとして位置づけています。
モデルが一度回答して終わる古典的な推論とは異なり、エージェントワークフローは単一のユーザーセッション内でモデルへの数十から数百の呼び出しを生成します。各ミリ秒のレイテンシはステップ数と共に倍増するため、TPU 8iは推論あたりの最低エネルギーで最大のスループットを目指します。
Googleは発表で具体的な数値を示していませんが、チップが「ネットワーク、データセンターから省エネ運用まで」の**「フルスタック」アーキテクチャ**の一部であり、「大衆にレスポンシブなエージェントAIを届ける」ことを目標としていると強調しています。
なぜトレーニング専用チップが必要か?
TPU 8tは最も複雑なモデルのトレーニングに最適化されています——Googleは「最も複雑なモデルを一つの大型共有メモリプール上で実行できる」能力を特に強調しています。これは重要で、現代のフロンティアモデル(数千億から兆のパラメータ)はもはや単一のアクセラレーターのメモリに収まらず、トレーニングを遅くする複雑な分散技術が必要です。
チップあたりの大型共有メモリ空間は、トレーニング中のチップ間通信の削減を意味し、実用的には最大モデルのトレーニング時間とコストを削減します。GoogleにとってこれはNvidia Blackwell UltraとAMD MI400シリーズへの競合他社としての回答でもあり、どちらも同じ市場セグメントを狙っています。
これは市場にとって何を意味するか?
TPUラインを推論とトレーニングに分けることは業界では新しい慣行ではありません——NvidiaとAWSはすでにアクセラレーターを分けています。しかしGoogleが同日2つのチップを正式発表したことは、同社が次の2年間で推論(エージェント)が主要な成長セグメントになると予測していることを示しており、トレーニングは重要ではあるものの、AI計算市場全体の中では小さな部分になるとみています。
Google Cloudユーザーにとって、これはワークロードに応じてハードウェアをより正確に選択できることを意味します:TPU 8iは本番のエージェントアプリケーションに、TPU 8tは独自の大規模モデルをトレーニングする研究チームに。具体的な価格、提供時期、過去世代のTPUとの比較は今後の技術発表で期待されます。
この記事はAIにより一次情報源から生成されました。