
Sakana AI が Sakana Fugu を発表しました(2026-04-24、Sakana AI 公式ブログ)。複数の強力なモデルを動的に束ねて動かす、「基盤モデルとしてのマルチエージェント機構」──と自社で位置づけた新しいシステム。ふと考えてしまうんですが、東京発の AI ラボが「モデルの下」で勝負する路線を、また一段進めた動きです。
Sakana AI のブログに書かれている定義を、そのまま引くと:
a multi-agent orchestration system as a foundation model
つまり、「一つの超大モデル」を磨くのではなく、多様なモデルプール(diverse pool of powerful models)を状況に応じて動的に呼び分けて、一本の「基盤モデル」のように振る舞わせる、という設計です。
発表本文に並んだキーワード。
2 サイズ体制はいま主流の「Flash / Pro」「Mini / Max」と揃う、業界標準の並び。要するに、Sakana はモデル単体の勝負ではなく、「モデル群をオーケストレートする層」を自社の中核に据える と改めて言っている。
Fugu の評価対象に挙がった 3 つのベンチマーク。
これ、見方を変えると、「推論・コード・ソフトウェア実装」という、現在のフラグシップモデルが競っている 3 つの軸と重なります。Sakana が挑んだのは、「Gemini や GPT-5.4 と同じ土俵で、オーケストレーションによって勝つ」というアプローチ。単一モデルのパラメータを増やす競争ではなく、既存の強いモデルを上手く指揮する 路線で、同じ数字を取りに行く設計です。
これ、見方を変えると面白い論点です。
これまで「ファウンデーションモデル」という言葉は、単一の巨大モデル(GPT、Claude、Gemini)を指す用法が定着していました。Sakana はその言葉を、複数モデルを動的に編成する仕組みに対しても当てに来た。
海外事例を振り返ると、Microsoft の AutoGen、LangChain の LangGraph、CrewAI などは「エージェント・フレームワーク」と呼ばれてきました。Fugu はそれらと近いレイヤーにいながら、「基盤モデル」の看板 を掲げた、という位置取り。
これは言葉遊びに見えて、実はマーケット・ポジションの宣言です。開発者が「API エンドポイントに投げたら、中で勝手に最適なモデルが呼ばれて応答が返る」──そのブラックボックスを API 製品として提供する、という設計。使う側にとっては「どのモデルが裏で動いているか」を気にしなくていい利便性がある半面、コスト構造とベンダーロックインの新しい形 も生みます。
歴史を振り返ると、日本の AI 企業が国際的に存在感を出す路線は、ほぼ 2 通りでした。
Sakana AI は、どちらとも少し違う位置を取ろうとしている。「基盤モデル群を指揮するメタレイヤー」を提供するラボ として自らを定義する動きは、国内 AI の文脈では比較的新しい。
海外事例と比較しても、Anthropic や OpenAI のような「フラグシップ独自モデル」競争に直接踏み込まず、そこを自社の研究アセット(進化的アルゴリズムによるモデル選択)で攻めにいく設計は、Sakana 固有の路線として続いています。
AI 競争が「モデルそのもの」から「モデルをどう並べて使うか」にシフトする兆しは、ここ数ヶ月で各所に現れ始めていました。Sakana Fugu は、そこに日本発の提案を置いた形です。
「基盤モデル」という言葉の意味が、もう一度書き直される局面かもしれませんね。次のステップが、まだ始まったばかりです。