🕛 2026.4.25 02:23 文:ズバッとショウ

DeepSeek V4プレビュー公開、chat.deepseek.comで無料解放。Pro 1.6T・Flash 284Bの両モデルを即日オープンウェイト配布

deepseek-v4-preview
X はてブ LINE Feedly

DeepSeek が V4 Preview を公開しました(DeepSeek API ドキュメント、2026-04-24)。オープンウェイトで 2 モデル投下、コンテキスト 1M がデフォルト、API もその日のうちに稼働──という畳み掛け。結局のところ、2025 年前半にグローバル AI の地図をひっくり返した DeepSeek が、もう一度同じ打ち方をしてきた、という話。

何が出たか

公式に明記された数値だけで整理します。

  • DeepSeek-V4-Pro: 1.6T total parameters / 49B active per token(Mixture-of-Experts)
  • DeepSeek-V4-Flash: 284B total / 13B active(軽量・高速の経済モデル)
  • 両モデルとも 1M コンテキストが標準、Thinking / Non-Thinking のデュアルモード対応
  • オープンウェイト(Hugging Face 配布、技術レポート PDF あり)
  • API は当日稼働。既存の DeepSeek API 利用者は model 名を deepseek-v4-pro / deepseek-v4-flash に差し替えるだけで使える
  • OpenAI ChatCompletions と Anthropic API の両方に対応
  • 旧モデル deepseek-chatdeepseek-reasoner2026-07-24 15:59 UTC で完全リタイア(それまでは V4-Flash 系にルーティング)

要するに、「今日からモデル文字列を書き換えて試せる」設計で出してきた。ここがポイントで、海外ラボが preview を引っ張りすぎる潮流とは真逆の動き。

Pro は何を狙っているか

DeepSeek が V4-Pro について強調している 3 点。

  • Agentic Coding ベンチマークでオープンソース SOTA
  • World Knowledge では open models の中でトップ、closed の Gemini 3.1 Pro にのみ劣後
  • Math / STEM / Coding の推論 で open models 全勝、closed-source top-tier に匹敵

正直、この「Gemini 3.1 Pro にだけ負ける」という並び方は、Anthropic Claude と OpenAI GPT-5.5 を名指しで避けて出した書き方にも見える。競合との距離の取り方が、マーケティングの視点でも上手い。

構造的な新しさ: DSA と Token-wise Compression

V4 の技術的なキモは、Novel Attention として提示された以下の 2 点。

  • Token-wise compression(トークン単位の圧縮)
  • DSA(DeepSeek Sparse Attention) を組み合わせ

これにより、長コンテキストでの compute と memory のコストを大幅に削った、と公式は書いています。1M がデフォルトで提供できる理由は、ここにある、という読み。要するに、「長文を捌く=高コスト」という前提そのものを、構造で降ろしにきた設計。

DSA 自体の詳細は技術レポート PDF(Hugging Face 上)に譲られていますが、長文処理の計算量が素朴な O(n²) から大幅に落ちるのであれば、100 万トークンが「実用速度」で動くというのは、広告ではなく仕様の話になる。

Agent 統合の意味

DeepSeek は V4 の特徴として「Claude Code、OpenClaw、OpenCode といった主要な AI エージェントとシームレスに統合」と明記しています。さらに、自社の内製エージェント型コーディングでも V4 を使っている、と。

ここがポイントで、DeepSeek は「モデル単体の性能」で勝負する段階を過ぎて、「エージェントのランタイムから使われるバックエンド」に自分を位置づけ直している。Claude Code に別モデルを差し込めるという事実は、Anthropic にとっても扱いが難しい論点を開いてきた、とも言える。

「V3 で勝った」後の 1 年をどう読むか

去年の DeepSeek V3 / R1 は、コストと性能のトレードオフをひっくり返してグローバル市場に波を作った。今回の V4 は、コンテキスト長・エージェント連携・オープンウェイト提供の 3 点セット を同時に叩いてきた、という構造。

  • 過去半年で GPT-5.5、Claude 4.x、Gemini 3.x が closed-source で走ってきた
  • その並びの中で、open-weight で 1M 文脈を標準に出した ラボが DeepSeek だけ、という状況
  • 中国国内の半導体事情(Huawei Ascend 系の採用)も重なり、「米中の AI 基盤の多元化」が 1 段進んだ印象

触り方、何から始めるか

まず押さえたいのは「V4 は 事実上タダで試せる」という点。

  • chat.deepseek.com: ブラウザから 無料で触れる(アカウント登録のみ)。Expert Mode(Thinking)と Instant Mode(Non-Thinking)の切替で、V4-Pro / V4-Flash 相当を体感できる
  • オープンウェイト: Hugging Face から ウェイトを無償ダウンロードできる。自前の GPU クラスタがある研究室やエンタープライズは、ライセンス費用ゼロで内製ホスティング可能
  • API は従量課金: プロダクション投入するなら API ルート。既存の DeepSeek API 利用者は model 名を deepseek-v4-pro / deepseek-v4-flash に書き換えるだけで切り替え完了

要するに、「まず chat.deepseek.com で雰囲気を掴み、通す目処が立ったら API 従量 or 自前ホスト」という 3 段階が組める。クローズドソースのフラッグシップと違い、検証コストがほぼゼロで着手できるのが V4 の競争優位。

7 月 24 日に旧モデル(deepseek-chat / deepseek-reasoner)が完全に退役する、という期日が明示されたのも重要で、プロダクション利用中のチームは、移行テストを夏休み前に通しておくのがノーリスク。

第 2 波で DeepSeek が出してくるのは、Reasoning 特化か、それともマルチモーダル統合か?

DeepSeek API Docs — DeepSeek V4 Preview Release

Hugging Face — DeepSeek V4 Collection

DeepSeek — V4 Technical Report (PDF)

みんなの反応

ML
ML基盤の中の人
(ML プラットフォームエンジニア・30代男性)

1M コンテキストがデフォルト、というのは運用側の前提を書き換えるやつです。これまで「16K / 128K の切り替え」を前提にしていたプロンプト設計が全部前提から外れる。コスト面でも Flash 系は検証コストが軽く、社内の長文 RAG をそのまま投げて精度を見る実験が、金曜の午後で回せる粒度になった印象。
株よみちゃん
(証券会社勤務アナリスト・40代女性)

オープンウェイトで 1.6T MoE を出してきた事実は、open-source 勢と closed-source 勢の差分を再計算する材料です。米系クラウドの収益は「クローズドモデルの希少性」に一部依存してきましたが、中国系ラボが性能で追いつき、かつ無償で配るというパターンが定着すると、ARR の伸びシナリオに下方圧力がかかる。短期よりも 2027 年以降のテーマ。
C
CISO見習い
(中堅企業 CISO 補佐・40代男性)

API 互換と Anthropic API 対応があるので、社内で既に Claude を使っているチームがシャドー的に DeepSeek を叩くルートが開きやすい。逆に言うと、「どのモデルに機密を通したか」のログが曖昧になりやすい構造なので、DLP 設定のモデル名ホワイトリスト化は今週のうちに点検したい。中国拠点モデルへのデータ送出の線引きを明文化しておく必要があります。
学生コーディングラボ
(情報系大学院生・20代男性)

オープンウェイトで 1.6T を配るのは研究者目線だとありがたすぎる話で、学内クラスタで動かせるサイズではないけれど、論文の再現実験を「API を叩いて確認」で済ませられるのは大きい。DSA の詳細はテックレポートを通しで読む予定。Sparse Attention の系譜が 1M で実運用に耐えたのか、そこを確認してからゼミで報告したいです。
JK
JK勉強垢
(進学校高校2年・女性)

1M コンテキスト、テキストでいうと本 10 冊くらい入る量って聞いて驚きました。受験勉強で過去問全部まとめて入れて「この傾向で出そうな範囲を要約して」って聞けるなら、正直相当心強いです。ただ、英語の論文とか読まないといけない学部に進んだら、中国系モデルにデータ投げていいのかは先生に聞いてから使う予定。
X はてブ LINE Feedly