
Google Cloud が 第 8 世代 TPU を発表。ここがポイントで、学習用の TPU 8t と、推論用の TPU 8i に分けて出してきた。2026-04-22、Cloud Next ’26 でのアナウンス。
これまでの TPU は「学習も推論も同じ石」で押し通す路線。今回はそれを割った。AI の使われ方が学習より推論に重心を移したから、という話。
Google 公式が謳う第 8 世代の性能。
3x と 80% は派手な数字。だが、比較対象がどの前世代か、どんなワークロードでの測定かは、公式のホワイトペーパー待ち。自社ワークロードで出るとは限らない。ありがちな話。
ただ、100 万 TPU を束ねるというスケール宣言は本気度の指標として効く。Gemini の次世代学習や、企業向けの大規模推論を同じインフラで回す前提だ。
結局のところ、AI の計算コストは推論側にシフトした。
ChatGPT がローンチした 2022 年末、業界の関心は「どれだけ大きなモデルを学習できるか」。いまは「どれだけ安く、速く、大量に推論を捌けるか」。エージェントが常時稼働する前提になれば、1 クエリの電気代が勝ち負けを決める。
学習向けの石(TPU 8t)と、推論向けの石(TPU 8i)を別設計にすれば、それぞれの役割で最適化できる。推論側は低消費電力・低遅延、学習側は通信帯域と並列性。割る方が合理的、という話。
Nvidia も同じ方向で Blackwell を学習と推論で使い分ける設計を出している。Amazon は Trainium と Inferentia で最初から分けていた。Google は後発で、同じ型に揃えてきた。
TechCrunch の取材だと、Google は Nvidia の次世代 GPU Vera Rubin を 2026 年中に Google Cloud で提供開始する予定。TPU と Nvidia GPU の両方を Google Cloud が持つ構図は変わらない。
で、金はどこから出ているのか。ハイパースケーラーが自社チップを回しても、Nvidia の需要は顧客から直接来る。Google Cloud を使う企業の中に、「NVIDIA 前提の既存アプリ」がまだ大量にあるから、Nvidia を締め出せない。
Patrick Moorhead(著名チップアナリスト)が X で皮肉っていた通り、2016 年に初代 TPU が出たとき「Nvidia の終わりか」と言われて 10 年。Nvidia の時価総額は約 5 兆ドル。予想ははずれた。Google の TPU 8t/8i も、Nvidia のパイを奪うというより、ハイパースケーラー同士の差別化カードの話として読むべきだ。
1. Gemini の推論コスト。TPU 8i が想定通り動けば、Gemini API の料金に影響する可能性がある。Google 自身が 性能/ドル 80% 改善と言った以上、価格転嫁は起きる。ただいつは未定。
2. Google Cloud の企業向け営業。Cloud Next ’26 のタイミングで Gemini Enterprise Agent Platform も発表しており、インフラから上のエージェント基盤まで一括で売りに行く形が揃った。AWS・Azure への競争圧力は上がる。
3. 日本企業の選択。国内の大手クラウド利用企業は、学習用には AWS Trainium や Nvidia、推論には GPU を借りる形が主流。TPU は「Google Cloud に閉じ込められる」懸念で敬遠されてきた。性能/ドルの差が本当に 80% あるなら、2026 年後半の調達判断で揺さぶられる案件は出てくる。
要するに、学習と推論を分けたのは市場の変化に合わせた当たり前の設計判断。派手ではない。派手なのは数字の 3x と 80% と 100 万 TPU。だが本当に効くのは、Gemini を駆動するコストが下がることで、エンタープライズ契約の値段競争に Google が入りやすくなる点だ。
ここから 2〜3 年、推論コスト競争で各社がどこまで引き離せるか。第 8 世代の TPU は、そのスタートラインにすぎないという話。
Google 公式ブログ — TPU 8t and 8i for the agentic era
TechCrunch — Google Cloud launches two new AI chips to compete with Nvidia