
DeepSeek が V4 Preview を公開しました(DeepSeek API ドキュメント、2026-04-24)。オープンウェイトで 2 モデル投下、コンテキスト 1M がデフォルト、API もその日のうちに稼働──という畳み掛け。結局のところ、2025 年前半にグローバル AI の地図をひっくり返した DeepSeek が、もう一度同じ打ち方をしてきた、という話。
公式に明記された数値だけで整理します。
deepseek-v4-pro / deepseek-v4-flash に差し替えるだけで使えるdeepseek-chat と deepseek-reasoner は 2026-07-24 15:59 UTC で完全リタイア(それまでは V4-Flash 系にルーティング)要するに、「今日からモデル文字列を書き換えて試せる」設計で出してきた。ここがポイントで、海外ラボが preview を引っ張りすぎる潮流とは真逆の動き。
DeepSeek が V4-Pro について強調している 3 点。
正直、この「Gemini 3.1 Pro にだけ負ける」という並び方は、Anthropic Claude と OpenAI GPT-5.5 を名指しで避けて出した書き方にも見える。競合との距離の取り方が、マーケティングの視点でも上手い。
V4 の技術的なキモは、Novel Attention として提示された以下の 2 点。
これにより、長コンテキストでの compute と memory のコストを大幅に削った、と公式は書いています。1M がデフォルトで提供できる理由は、ここにある、という読み。要するに、「長文を捌く=高コスト」という前提そのものを、構造で降ろしにきた設計。
DSA 自体の詳細は技術レポート PDF(Hugging Face 上)に譲られていますが、長文処理の計算量が素朴な O(n²) から大幅に落ちるのであれば、100 万トークンが「実用速度」で動くというのは、広告ではなく仕様の話になる。
DeepSeek は V4 の特徴として「Claude Code、OpenClaw、OpenCode といった主要な AI エージェントとシームレスに統合」と明記しています。さらに、自社の内製エージェント型コーディングでも V4 を使っている、と。
ここがポイントで、DeepSeek は「モデル単体の性能」で勝負する段階を過ぎて、「エージェントのランタイムから使われるバックエンド」に自分を位置づけ直している。Claude Code に別モデルを差し込めるという事実は、Anthropic にとっても扱いが難しい論点を開いてきた、とも言える。
去年の DeepSeek V3 / R1 は、コストと性能のトレードオフをひっくり返してグローバル市場に波を作った。今回の V4 は、コンテキスト長・エージェント連携・オープンウェイト提供の 3 点セット を同時に叩いてきた、という構造。
まず押さえたいのは「V4 は 事実上タダで試せる」という点。
model 名を deepseek-v4-pro / deepseek-v4-flash に書き換えるだけで切り替え完了要するに、「まず chat.deepseek.com で雰囲気を掴み、通す目処が立ったら API 従量 or 自前ホスト」という 3 段階が組める。クローズドソースのフラッグシップと違い、検証コストがほぼゼロで着手できるのが V4 の競争優位。
7 月 24 日に旧モデル(deepseek-chat / deepseek-reasoner)が完全に退役する、という期日が明示されたのも重要で、プロダクション利用中のチームは、移行テストを夏休み前に通しておくのがノーリスク。
第 2 波で DeepSeek が出してくるのは、Reasoning 特化か、それともマルチモーダル統合か?
DeepSeek API Docs — DeepSeek V4 Preview Release
Hugging Face — DeepSeek V4 Collection
DeepSeek — V4 Technical Report (PDF)