🕛 2026.4.23 09:41 文:ズバッとショウ

Google Cloud、第8世代 TPU を学習用「8t」と推論用「8i」に分割。性能/ドルは80%改善

Google Cloud、第8世代 TPU を学習用「8t」と推論用「8i」に分割。性能/ドルは80%改善
X はてブ LINE Feedly

Google Cloud が 第 8 世代 TPU を発表。ここがポイントで、学習用の TPU 8t と、推論用の TPU 8i に分けて出してきた。2026-04-22、Cloud Next ’26 でのアナウンス。

これまでの TPU は「学習も推論も同じ石」で押し通す路線。今回はそれを割った。AI の使われ方が学習より推論に重心を移したから、という話。

数字を見よう

Google 公式が謳う第 8 世代の性能。

  • 学習速度: 前世代比 3 倍
  • 性能/ドル: 80% 改善
  • 単一クラスタ 100 万 TPU 超の結束

3x と 80% は派手な数字。だが、比較対象がどの前世代か、どんなワークロードでの測定かは、公式のホワイトペーパー待ち。自社ワークロードで出るとは限らない。ありがちな話。

ただ、100 万 TPU を束ねるというスケール宣言は本気度の指標として効く。Gemini の次世代学習や、企業向けの大規模推論を同じインフラで回す前提だ。

なぜ学習と推論を割ったのか

結局のところ、AI の計算コストは推論側にシフトした

ChatGPT がローンチした 2022 年末、業界の関心は「どれだけ大きなモデルを学習できるか」。いまは「どれだけ安く、速く、大量に推論を捌けるか」。エージェントが常時稼働する前提になれば、1 クエリの電気代が勝ち負けを決める。

学習向けの石(TPU 8t)と、推論向けの石(TPU 8i)を別設計にすれば、それぞれの役割で最適化できる。推論側は低消費電力・低遅延、学習側は通信帯域と並列性。割る方が合理的、という話。

Nvidia も同じ方向で Blackwell を学習と推論で使い分ける設計を出している。Amazon は Trainium と Inferentia で最初から分けていた。Google は後発で、同じ型に揃えてきた

Nvidia を殴りに行ったわけではない

TechCrunch の取材だと、Google は Nvidia の次世代 GPU Vera Rubin を 2026 年中に Google Cloud で提供開始する予定。TPU と Nvidia GPU の両方を Google Cloud が持つ構図は変わらない。

で、金はどこから出ているのか。ハイパースケーラーが自社チップを回しても、Nvidia の需要は顧客から直接来る。Google Cloud を使う企業の中に、「NVIDIA 前提の既存アプリ」がまだ大量にあるから、Nvidia を締め出せない。

Patrick Moorhead(著名チップアナリスト)が X で皮肉っていた通り、2016 年に初代 TPU が出たとき「Nvidia の終わりか」と言われて 10 年。Nvidia の時価総額は約 5 兆ドル。予想ははずれた。Google の TPU 8t/8i も、Nvidia のパイを奪うというより、ハイパースケーラー同士の差別化カードの話として読むべきだ。

影響が出るのはどこか

1. Gemini の推論コスト。TPU 8i が想定通り動けば、Gemini API の料金に影響する可能性がある。Google 自身が 性能/ドル 80% 改善と言った以上、価格転嫁は起きる。ただいつは未定。

2. Google Cloud の企業向け営業。Cloud Next ’26 のタイミングで Gemini Enterprise Agent Platform も発表しており、インフラから上のエージェント基盤まで一括で売りに行く形が揃った。AWS・Azure への競争圧力は上がる。

3. 日本企業の選択。国内の大手クラウド利用企業は、学習用には AWS Trainium や Nvidia、推論には GPU を借りる形が主流。TPU は「Google Cloud に閉じ込められる」懸念で敬遠されてきた。性能/ドルの差が本当に 80% あるなら、2026 年後半の調達判断で揺さぶられる案件は出てくる。

勝ち筋はある

要するに、学習と推論を分けたのは市場の変化に合わせた当たり前の設計判断。派手ではない。派手なのは数字の 3x と 80% と 100 万 TPU。だが本当に効くのは、Gemini を駆動するコストが下がることで、エンタープライズ契約の値段競争に Google が入りやすくなる点だ。

ここから 2〜3 年、推論コスト競争で各社がどこまで引き離せるか。第 8 世代の TPU は、そのスタートラインにすぎないという話。

Google 公式ブログ — TPU 8t and 8i for the agentic era

TechCrunch — Google Cloud launches two new AI chips to compete with Nvidia

みんなの反応

株よみちゃん
(証券アナリスト・40代女性)

性能/ドル 80% 改善は、公式発表の比較条件を読み解かないと過大評価になります。同時期の Nvidia Blackwell との推論ワット効率の差分で、Gemini API の値下げ余地がどこまで出るかが 2026 年後半の注目。Google Cloud 部門の利益率への寄与は、値下げ圧と相殺される可能性もあります。
ML
ML基盤の中の人
(ML プラットフォーム・30代男性)

TPU を触ってるチームとしては、学習と推論を分ける設計は正直助かる。JAX と XLA 周りで学習用の最適化が推論のレイテンシに干渉する場面が多かったので、役割分離は待望。ただ Pod 構成の料金体系が 8t/8i で変わるなら、コスト試算をやり直す必要がある。
クラウド調達マン
(IT調達・40代男性)

日本企業の調達目線だと、TPU に寄せる判断は「Google Cloud ロックイン」と直結するのでハードルが高い。Vertex AI 経由で抽象化されている範囲なら迷わないが、低レイヤで TPU を指名する選択は稟議が重くなる。マルチクラウドの前提を崩せない現場が多数派という実感。
エッジAIおじさん
(ハードウェアエンジニア・40代男性)

推論を分ける設計はエッジ AI 側から見ると勇気をもらう流れ。クラウド側が推論専用の石に投資すれば、推論向けのアーキテクチャ研究が加速して、エッジ向けにトリクルダウンしてくる。来年再来年のスマホ NPU の世代が楽しみになる話。
個人投資家タロウ
(個人投資家・50代男性)

Nvidia を殴らないという指摘が冷静で良かった。ハイパースケーラーの自社チップ戦略は Nvidia の逆風というより、顧客をクラウドに囲い込むための武器。Nvidia の需要構造は企業の AI 投資全体の伸びで決まるので、しばらくは共存路線でしょう。
X はてブ LINE Feedly