🕛 2026.4.26 13:24 文:ナナまどか

「Claude Opus 4.7」、Amazon Bedrockで提供開始。東京リージョン初日対応、価格は据え置き

「Claude Opus 4.7」、Amazon Bedrockで提供開始。東京リージョン初日対応、価格は据え置き
X はてブ LINE Feedly

Anthropic の最新 Opus モデル「Claude Opus 4.7」が、Amazon Bedrock で提供開始されました(AWS News Blog)。Anthropic 自身は 4 月 16 日にこのモデルを公開していて、Claude API・Bedrock・Google Cloud Vertex AI・Microsoft Foundry の四面で同時提供という動き方をしています。

ふと考えてしまうんですが、フロンティアモデルが「主要クラウド全部に同時着地する」流れは、ここ半年で完全に常態化しました。OpenAI が GPT-5 系を Azure / Foundry で出すのと同じ構図で、Anthropic もマルチクラウド前提のリリース運用に入っている、という見方ができます。Amazon は Anthropic への大型投資を重ねていて、Bedrock がいわば本拠地のひとつ、というポジションです。

スペックと提供条件

AWS 公式の発表を整理します。

  • モデル: Claude Opus 4.7(Opus 4.6 の直接アップグレード)
  • コンテキストウィンドウ: 1M トークン
  • SWE-bench Verified: 87.6%
  • SWE-bench Pro: 64.3%
  • 価格: 入力 $5/1M トークン(約 750 円)、出力 $25/1M トークン(約 3,750 円)。Opus 4.6 と同額据え置き
  • 提供リージョン: 米国東部(バージニア北部)、アジアパシフィック(東京)、欧州(アイルランド)、欧州(ストックホルム)
  • 推論基盤: Bedrock の次世代推論エンジン
  • データプライバシー: operator zero-access(Anthropic / AWS のオペレータが顧客のプロンプトと応答を閲覧できない構造)

東京リージョンが初日から含まれていることは、日本企業にとって大事なポイント。データレジデンシーの要件で米国リージョンを使えなかった金融・公共系が、そのまま Opus 4.7 に乗れます。

SWE-bench の数字をどう読むか

SWE-bench Verified の 87.6% は、コーディング系のエージェントベンチマークでは現時点で最先端クラス。「実在の Python OSS プロジェクトに対して issue を解いて PR を出させる」という設定で、9 割近い問題に正しく対処できる、というのは数年前の感覚で言えば信じられない水準です。

これ、見方を変えると、コーディングタスクの「自律的な長尺作業(long-horizon autonomy)」がエージェントモデルの主戦場として固まった、という示唆でもあります。スポット質問に答える性能ではなく、「ファイルをまたいで何時間も粘って一個のバグを直しきる」のような能力で各社が殴り合っている、という地形図です。

価格据え置きの意味

価格が Opus 4.6 から据え置きで $5 / $25(百万トークンあたり入力 / 出力)というのも示唆的。性能が上がったぶんだけ単価を上げる、という伝統的な値付けではなく、性能アップを織り込んだ上で値段は触らない、というのは「Opus を使い慣れたユーザーの予算計画を壊さない」メッセージとして読めます。

歴史を振り返ると、エンタープライズ顧客が一番嫌うのは性能変化ではなく予算変動です。Bedrock 経由で年間契約を結んでいる顧客にとって、「同じ予算のまま、より賢くなった Opus を使える」というのはリリース日からそのまま現場が乗りやすい設計。ここを維持できているうちは、Anthropic は法人向けに強いポジションを保てるはずです。

operator zero-access の言い方が変わってきた

地味ですが今回の発表で目を引いたのが、データプライバシーの説明として「operator zero-access」という表現が前面に出てきたこと。Anthropic / AWS のオペレータが顧客のプロンプトと応答を見られない、と明確に書かれています。

これ、見方を変えると、エンタープライズが AI クラウドに向ける警戒心の重心が、「学習に使われるかどうか」から「運用者ですら閲覧できない構造になっているか」にシフトしてきた証拠でもあります。学習利用の有無は契約レベルで縛れますが、運用者の閲覧は技術設計の話なので、宣言の重みが違います。

日本企業の選択肢としてどう見るか

日本のエンタープライズが Opus 4.7 を採用する場合、主な選択肢は 3 系統に分かれます。

ひとつは Anthropic 直接(Claude API)。料金は同じですが、東京リージョン由来のレイテンシ最適化や、AWS 側の VPC エンドポイント経由といった既存運用との相性は Bedrock の方が圧倒的に良い。

もうひとつは Bedrock 経由。AWS 既存契約を延長線で使え、IAM / KMS / VPC まわりが既存のセキュリティ設計と整合します。今回の発表で東京リージョン初日対応が明示されたので、選びやすくなっています。

最後は Google Cloud Vertex AI 経由。Gemini と並べて比較したい場合や、BigQuery / Looker と連携した RAG パイプラインを組みたい場合は、Vertex AI が選択肢に入ります。

このマルチクラウド対応の濃さが、Anthropic の事業上の差別化として効いてきている、という流れは追っておきたいところ。Opus 4.7 が「自社が普段使っているクラウドのままで、最新性能に乗り換えられる」状態を作っている、という事実そのものが、フロンティアモデル選定の判断軸を変えてしまっています。

クラウド側の「主役モデル」をどこで握るのか、という話はまだ始まったばかりですね。

AWS News Blog — Introducing Anthropic’s Claude Opus 4.7 model in Amazon Bedrock

AWS What’s New — Claude Opus 4.7 is now available in Amazon Bedrock

AWS Bedrock Docs — Claude Opus 4.7 Model Card

みんなの反応

株よみちゃん
(証券会社勤務アナリスト・40代女性)

価格据え置きで性能アップは Anthropic の法人取り囲みの王道。Opus 4.6 で年間予算を組んだ顧客がそのまま 4.7 に乗り移れる設計は、契約継続率を露骨に守ってる。Bedrock 経由は AWS の決算でも IaaS+モデル課金の二段構えで効くので、AWS にとっても重い玉。マルチクラウド同時提供で OpenAI 一本足にもしない構図がきれい。
ぬるぽ
(システムエンジニア・30代男性)

SWE-bench Verified 87.6 はもう「ベンチマーク飽和」が近い。プロ版(Pro 64.3)の難度をどう持ち上げるかが次の競争軸。1M コンテキストと operator zero-access はエンタープライズに刺さるが、自分の開発で本当に効くのは関数呼び出しの安定性なので、ここは API 触ってから判断したい。
永田町ウォッチャー
(政治コンサルタント・30代男性)

東京リージョン初日対応の意味合いが大きい。経産省・デジタル庁系の調達条件で「データを国外に出さない」要件が増えてる中、Bedrock 経由で Opus 4.7 が東京で使えるのは、公共調達の仕様書がそのまま通る形。日本国内の主権 AI 議論と AWS の事業利益が綺麗に噛み合うのは皮肉な構造でもある。
社会学D3
(社会学博士課程・30代男性)

operator zero-access という表現が前面に出てきたのは社会学的にも興味深い。AI を使うときの不安が「学習に使われる」から「運用者に見られる」にシフトしたのを示している。これは、信頼の根拠が法務契約から技術設計に移った、ということで、エンドユーザーの安心感の作り方そのものが構造変化している。
人権弁護士れん
(人権派弁護士・30代女性)

operator zero-access の宣言は法的にも追い風。事業者が「閲覧していない」を技術設計レベルで担保しているなら、個人情報を扱う案件の業務委託契約が通しやすくなる。一方で、PII を本当に学習側に流していないか、第三者監査の枠組みは別途必要。宣言の重みが上がった分、検証の責任も上がる。
X はてブ LINE Feedly