ハードウェア

GPU(Graphics Processing Unit)

数千の並列コアを持つグラフィックスプロセッサで、今日のAIモデル学習と推論の主要ハードウェアです。NVIDIA H100/B200が市場を支配しています。

**GPU(Graphics Processing Unit)**は元々3Dグラフィックスのレンダリング用に設計されましたが、ニューラルネットワークの学習に並外れて適していることが判明しました。理由:ディープラーニングは膨大な並列行列演算に帰着し、GPUにはまさにそれを効率的に行う数千の小さなコアがあります — いくつかの強力なシーケンシャルコアを持つCPUとは対照的です。

AIにとって重要な層:

  • Tensor cores / Matrix cores — FP16/FP8/INT8行列乗算用の専用ユニット(NVIDIA Volta以降、AMD CDNA)
  • HBMメモリ — 標準GDDRよりはるかに高い帯域幅を持つHigh Bandwidth Memory。H100には80 GBのHBM3、B200には192 GBのHBM3eがあります
  • インターコネクト — NVLinkとNVSwitchが、学習のために8〜72個のGPUを単一の論理システムに接続することを可能にします
  • CUDAエコシステム — NVIDIAのソフトウェアの堀。代替(ROCm、OneAPI、Triton)はようやく勢いをつけ始めています

今日のAI経済は、GPUに深く結びついています。NVIDIAは2024/2025年、まさにH100/B200の出荷のおかげで、世界で最も価値のある企業になりました。フロンティアモデル学習用のシングルGPUクラスタの価格は、数億ドルで測定されます。

TPU(Google)やTrainium(AWS)のようなAIアクセラレータは、特に大規模言語モデル推論で独占を揺るがそうとしていますが、フロンティアモデルの学習においては、2026年もGPUが依然として支配的です。

出典

関連項目