
Anthropic と Amazon が、計算資源と資本の両面で強く結びついた拡張提携を発表しました。数字が大きいので、まずは要点だけ整理します。
ふと考えてしまうんですが、「最大 5GW」という表現は、AI 計算資源の世界ではどれほどのスケールなのでしょうか。原子力発電所の標準的な 1 基がだいたい 1GW 前後。つまり、原発 5 基ぶんの電力を Claude の学習と推論に流し込む、という約束が AI ベンダーと AWS の間で交わされた、という話になります。
これ、見方を変えると、「モデルを作る競争」が「電力を押さえる競争」に重心を移している象徴でもあります。数年前までの AI ラボの競争軸は「どのアーキテクチャが効くか」でしたが、ここ 1〜2 年は「誰がどれだけ電力と計算資源を確保したか」がモデル性能そのものを決める構造に変わってきました。Anthropic × AWS、OpenAI × Microsoft、Google × TPU、xAI × 自社データセンター——各社の陣形が 2026 年に入ってクッキリしてきたのは、多くの読者の方も感じているところだと思います。
Trainium は AWS が自社設計した AI 学習用チップ。Anthropic は Trainium2・Trainium3 の利用に加え、将来の Trainium4 および後続世代も購入できる権利を確保しました。NVIDIA H100/H200/B200 系に依存しない選択肢を作っておく、ということです。
見落としがちなのは、「AWS が自社チップを売り込む顧客として、Anthropic を象徴的パートナーに据えた」 という意味合いです。Bedrock で Claude を使っている企業はすでに 10 万社以上。Anthropic が Trainium を選び続ける構図は、AWS 経由で AI を導入している企業側にとっても「Claude は Trainium で、ちゃんと性能を出せるはず」というシグナルになります。
2023 年、Amazon が Anthropic に最初の 40 億ドルを投資した時、クラウド会社が特定の AI ラボに大型投資をするというモデル自体がまだ珍しかった。Microsoft が OpenAI に投じた 130 億ドルと並んで話題になったやつです。そこから約 2 年半で、Amazon の累計コミットメントは 80 億ドルに拡大し、今回の追加で 130 億ドル、さらに将来の追加枠まで含めると最大 330 億ドル規模に到達しました。
逆に Anthropic 側は、今後 10 年で AWS に 1,000 億ドル以上を払うと約束した格好です。金額の大きさも衝撃ですが、見逃せないのは「10 年」という時間軸。モデルのライフサイクルが数か月で塗り替わるこの業界で、10 年先まで計算資源の調達計画を固定するという判断がなされた、というのは、AI インフラが「電力・半導体・クラウド契約」の 10 年単位の設計問題になった、という表れだと思います。
〜の方にとっては、これは単なる企業ニュースに見えるかもしれません。ただ、AI を電力と資本のゲームとして捉える視点は、今後のモデル性能や価格、地域ごとの利用可否にも跳ね返ってきます。日本国内でも Claude は AWS 東京リージョン経由で使える環境が整いつつあり、5GW 規模のキャパシティが日本のエンタープライズ利用にどう染み出すかは、しばらく追っておきたいテーマです。
AI 時代のインフラ競争は、まだ始まったばかりですね。
Anthropic — Anthropic and Amazon expand collaboration for up to 5 gigawatts of new compute(公式)
Amazon About — Amazon and Anthropic expand strategic collaboration(公式)
Bloomberg — Amazon Invests Additional $5 Billion in Anthropic to Deepen AI Partnership