🕛 2026.4.25 02:22 文:ナナまどか

Sakana AI「Fugu」発表。複数モデルを動的編成する基盤モデルとしてのマルチエージェント機構

sakana-ai-fugu
X はてブ LINE Feedly

Sakana AI が Sakana Fugu を発表しました(2026-04-24、Sakana AI 公式ブログ)。複数の強力なモデルを動的に束ねて動かす、「基盤モデルとしてのマルチエージェント機構」──と自社で位置づけた新しいシステム。ふと考えてしまうんですが、東京発の AI ラボが「モデルの下」で勝負する路線を、また一段進めた動きです。

Fugu は何か

Sakana AI のブログに書かれている定義を、そのまま引くと:

a multi-agent orchestration system as a foundation model

つまり、「一つの超大モデル」を磨くのではなく、多様なモデルプール(diverse pool of powerful models)を状況に応じて動的に呼び分けて、一本の「基盤モデル」のように振る舞わせる、という設計です。

発表本文に並んだキーワード。

  • dynamically coordinating and orchestrating: 動的に連携・編成する(事前に固定したワークフローではない)
  • diverse pool of powerful models: 複数の強いモデルを組み合わせる(単一の巨大モデルではない)
  • superior performance on established benchmarks: GPQAD / LCBv6 / SWEPro で優位
  • 提供形態: 初期段階で API 提供Sakana Fugu Mini(レイテンシ最適化)と Sakana Fugu Ultra(性能重視)の 2 バリアント

2 サイズ体制はいま主流の「Flash / Pro」「Mini / Max」と揃う、業界標準の並び。要するに、Sakana はモデル単体の勝負ではなく、「モデル群をオーケストレートする層」を自社の中核に据える と改めて言っている。

ベンチマークが興味深い

Fugu の評価対象に挙がった 3 つのベンチマーク。

  • GPQAD — graduate-level サイエンス QA(推論の総合力)
  • LCBv6 — LiveCodeBench v6(コード生成・実装の実力)
  • SWEPro — SWE-bench Pro(ソフトウェアエンジニアリング実務タスク)

これ、見方を変えると、「推論・コード・ソフトウェア実装」という、現在のフラグシップモデルが競っている 3 つの軸と重なります。Sakana が挑んだのは、「Gemini や GPT-5.4 と同じ土俵で、オーケストレーションによって勝つ」というアプローチ。単一モデルのパラメータを増やす競争ではなく、既存の強いモデルを上手く指揮する 路線で、同じ数字を取りに行く設計です。

「基盤モデル」と「オーケストレーション」の境界

これ、見方を変えると面白い論点です。

これまで「ファウンデーションモデル」という言葉は、単一の巨大モデル(GPT、Claude、Gemini)を指す用法が定着していました。Sakana はその言葉を、複数モデルを動的に編成する仕組みに対しても当てに来た。

海外事例を振り返ると、Microsoft の AutoGen、LangChain の LangGraph、CrewAI などは「エージェント・フレームワーク」と呼ばれてきました。Fugu はそれらと近いレイヤーにいながら、「基盤モデル」の看板 を掲げた、という位置取り。

これは言葉遊びに見えて、実はマーケット・ポジションの宣言です。開発者が「API エンドポイントに投げたら、中で勝手に最適なモデルが呼ばれて応答が返る」──そのブラックボックスを API 製品として提供する、という設計。使う側にとっては「どのモデルが裏で動いているか」を気にしなくていい利便性がある半面、コスト構造とベンダーロックインの新しい形 も生みます。

日本の AI ラボが「編成の層」を狙う意味

歴史を振り返ると、日本の AI 企業が国際的に存在感を出す路線は、ほぼ 2 通りでした。

  • 独自モデル路線: 日本語特化、産業特化の基盤モデル(Preferred Networks、LINE、ELYZA 等)
  • 応用路線: 既存モデルを活用したプロダクト・エージェント(多くの SaaS プレイヤー)

Sakana AI は、どちらとも少し違う位置を取ろうとしている。「基盤モデル群を指揮するメタレイヤー」を提供するラボ として自らを定義する動きは、国内 AI の文脈では比較的新しい。

海外事例と比較しても、Anthropic や OpenAI のような「フラグシップ独自モデル」競争に直接踏み込まず、そこを自社の研究アセット(進化的アルゴリズムによるモデル選択)で攻めにいく設計は、Sakana 固有の路線として続いています。

何が次に見えるか

  • API 提供がどの地域から展開されるか(日本先行か、グローバル同時か)
  • 料金体系: 単一モデルより安くなるのか、高くなるのか。動的編成ゆえの価格設計
  • 他の AI ラボ(特に OpenAI / Anthropic)が同種の「モデル編成層」を提供するようになるか
  • 日本語タスクでの性能評価が別途出るか

AI 競争が「モデルそのもの」から「モデルをどう並べて使うか」にシフトする兆しは、ここ数ヶ月で各所に現れ始めていました。Sakana Fugu は、そこに日本発の提案を置いた形です。

「基盤モデル」という言葉の意味が、もう一度書き直される局面かもしれませんね。次のステップが、まだ始まったばかりです。

Sakana AI — Fugu Beta

みんなの反応

学生コーディングラボ
(情報系大学院生・20代男性)

Sakana が進化的アルゴリズムで「モデル選択」自体を最適化する路線を続けていたことを考えると、Fugu はこれまでの研究蓄積を製品化した形に見えます。GPQAD と SWEPro を同時に取りに行った評価設計は挑戦的で、単一モデルが苦手とするドメイン切り替えで稼ぐ構造なら、オーケストレーション路線の強さが実証される話になる。技術レポートを期待します。
ML
ML基盤の中の人
(ML プラットフォームエンジニア・30代男性)

「基盤モデルとしてのマルチエージェント」はマーケティング的に巧い言い回しですが、実装面では既存のルーティング/MoE/カスケード推論の発展型に近い。課題は「どのモデルを裏に置くか」のコスト管理とレイテンシの保証。Mini / Ultra の 2 段構えが提示されたのは、このトレードオフを前提に設計されているサイン。社内の RAG × LLM の経路最適化に応用できるか検討。
開発合宿おじさん
(ソフトウェア受託開発・40代男性)

SWEPro 対応を売りにするなら、受託開発の現場で使えるか試したい。いまの AI コーディング支援は、1 つのモデルに全部任せると得意分野と不得意分野のムラが大きい。Fugu が「裏でうまく使い分ける」のが本当なら、受託側の工数見積もりが変わる。ただ API のみ提供は社内環境の制約に引っかかるので、オンプレオプションの有無は要確認。
C
CISO見習い
(中堅企業 CISO 補佐・40代男性)

「裏で動的にモデルが選ばれる」設計は、セキュリティの観点からは監査が難しい類のプロダクトになる。どのモデルに機密データが流れたか、ログをどこまで可視化できるかは導入可否の判断材料です。国内ラボが提供する点は評価したいが、ガバナンス観点での情報公開(モデル一覧・データ経路・保持期間)がどこまで出るかを確認してからの採用にしたい。
永田町ウォッチャー
(政治コンサルタント・30代男性)

経済産業省や NEDO が推してきた「日本発の AI」論は、基盤モデル競争では米中にかなり押されてきた。Sakana が「モデルを束ねる層」に勝負を挑むのは、国策として支援しやすい領域。産業技術の波及効果という観点で、オーケストレーションプレイヤーは政策的に注目されるべきカテゴリーに入ります。
X はてブ LINE Feedly