
Google DeepMind が Deep Research と Deep Research Max を打ち出した。どちらも Gemini 3.1 Pro を駆動源とする自律型の研究エージェントで、2026-04-21 時点では Gemini API の有料ティア向け public preview として始まっている。ウェブと、ユーザー側の「カスタムデータ」を横断してリサーチができる。
これ、見方を変えると、去年までの「AI が調べものを代わりにやる」路線の、ひとつの到達点に見えます。去年 OpenAI が Deep Research を出して、Google もすぐ追いかけたけれど、今回は Gemini 3.1 Pro の上で「速い版」と「深い版」を別製品にして並べたというのが分岐点。
Google DeepMind 公式の説明がわかりやすくて、
ふたつを並べた設計は、AI の使い方が「何でも同じ精度で答えるモデル」から、「速さと深さを用途で切り替える」方向にシフトしていることを、はっきり示している。これは OpenAI の o 系モデルや、Claude の extended thinking とも地続きの考え方。
今回の発表でもう一つ見逃せないのが、Deep Research が MCP(Model Context Protocol)を任意でサポートすること。
MCP は Anthropic が昨年公開したプロトコルで、「AI エージェントが外部のデータソースに標準化された形で接続する」仕組み。これを Google が自社の主要エージェントに「安全に」組み込む、というアナウンスの仕方を選んだのが示唆的です。
つまり、自社の独自 API に囲い込むのではなく、業界標準として定着しつつある接続層に乗る判断をした。数年前までの AI 業界なら、各社が独自のコネクタを乱立させていたところ。ここを譲るかどうかは、今年の後半に向けて企業が AI を本格導入するかどうかを左右する地味な分岐点だと思います。
Google DeepMind は今回、「ウェブだけでなく、あなた自身のカスタムデータ—内部ドキュメントや専門の知識ベース—も安全に扱える」と明言しています。
これ、Gemini のエンタープライズ展開(Google Workspace との統合、Vertex AI 経由の RAG、Agentspace)で積み上げてきた地盤の延長線上で、「企業内の文書を扱える研究エージェント」を、Deep Research というブランドで一本化してきた動き。
OpenAI の ChatGPT にも似た方向(コネクタ経由の社内検索)があるので、ここは「企業内ナレッジに入り込めるエージェントの標準化」という競争。誰が先に、社員が自然に使える UXまで届くか。続報待ち、という感触ですね。
個人的にはここがいちばん面白い話で、「速い Deep Research」が出てきたことで、研究エージェントの使われ方が二つに割れる気配がします。
前者はAI アシスタントとしての日常使い、後者は人間のリサーチャーの外注相手。同じ「Deep Research」というブランドの中で、用途が分かれる設計になっています。
これ、Anthropic が Claude に extended thinking を載せて「同じモデルで速度と深さを切り替える」設計にしたのと、思想が明確に違う。Google は製品を分ける、Anthropic はモデルを混ぜる。どちらの設計が現場で使いやすいかは、実際にチームで運用してみないと見えてこない部分です。
今回の公式ブログで確認できる提供状況は、Gemini API の有料ティアで public preview 開始、Google Cloud 向けは今後提供予定という段階です。なので、「誰でももう使える一般公開」というより、開発者と先行導入組織が先に触り始めるフェーズと見るのが正確です。
研究エージェント市場では、速さと深さをどう切り分けるかが各社で分かれてきました。Google はそこを製品で分ける道を選んだ、というのが今回の読み筋です。
Google DeepMind(X) — Deep Research and Deep Research Max
Google DeepMind(X) — Speed vs. depth の使い分け
Google Blog — Introducing Deep Research and Deep Research Max