🕛 2026.4.21 09:54 文:みちるガジェ

Google が「Gemma 4 × エッジ・エージェンティック」実装ガイドを公開——2.3B/4.5B/26B MoE/31B Dense の 4 サイズ、Raspberry Pi や Jetson Orin Nano で完全オフライン動作

Google が「Gemma 4 × エッジ・エージェンティック」実装ガイドを公開——2.3B/4.5B/26B MoE/31B Dense の 4 サイズ、Raspberry Pi や Jetson Orin Nano で完全オフライン動作
X はてブ LINE Feedly

Google Developers Blog から、Gemma 4 を使ってエッジデバイス上でエージェンティックなワークフローを走らせるための実装ガイドが公開されました。Gemma 4 自体は 2026-04-02 に公開された開モデル(Apache 2.0)ですが、今回はその “実装者向け版” という位置付けです。これ、個人的に刺さったので中身を整理しますね。

で、気になるスペックなんですが

Gemma 4 のラインナップはこんな感じ。エッジ向けとサーバ向けで 4 サイズが揃っています。

  • E2B:モバイル・IoT向けの小型構成
  • E4B:ラップトップやエッジ端末向けの上位小型構成
  • 26B A4B:Mixture of Experts 構成で、推論時は 4B 相当がアクティブ になる設計
  • 31B Dense:サーバサイドのフラッグシップ。Arena AI text 開モデルで #3 というやつです(26B MoE は #6)

前モデル Gemma 3 が 1B / 4B / 12B / 27B の Dense 構成だったので、今回 MoE が 1 枠入ってきたのが大きな変化点。MoE はアクティブパラメータだけ動くので、総パラ数は大きいのにレイテンシは小さいサイズ並み、という”お得な”挙動をします。

エッジで何ができるか

実装ガイドと DeepMind 公式ページの一番の訴求は、「スマホ・Raspberry Pi・Jetson Nano 級の端末で完全オフライン動作する」 というところ。ネット接続なしで多段のエージェント処理が回るようになった、というのが今回のポイントです。

できるようになったのはこのあたり。

  • 多段プランニング(複数ステップの計画を立てて実行)
  • 自律的なアクション実行(function-calling を使ってツールを呼ぶ)
  • オフラインのコード生成
  • オーディオ・ビジュアル処理(マルチモーダル対応)
  • 140 言語以上のサポート

個人的に刺さったのは、function calling がネイティブ対応していること。追加のファインチューニングなしで、ツール呼び出しを伴うエージェントが書けるという設計です。

競合・前モデルと比べると

前モデル Gemma 3 との比較で一番わかりやすいのは、エッジ向け E4B の”実効 4.5B” という設計。総パラメータと実効パラメータを分けて示すようになったのが Gemma 4 の流儀で、メモリに乗る重みとアクティブ時の計算量を別管理しやすくなっています。

他社の立ち位置も簡単に整理しておきます。

  • Meta の Llama 4 系:オープンウェイトの最大手、サーバ特化の傾向
  • Microsoft Phi-5 系:小型オンデバイスの先行組、ただしエージェンティックは追加工夫が要る
  • Apple Intelligence オンデバイスモデル:Mac/iPhone 限定、Apple Silicon 前提

Gemma 4 の強みは、Apache 2.0 という商用利用しやすいライセンスで、エッジハードの選択肢が広いこと。Raspberry Pi や Jetson Nano 系で動かせる、というのは、試作段階の IoT エージェントを作りたい人にとってはかなり大きいです。

実物で動かすとどう感じるか

さすがに全サイズを自分でまだ触りきれていないですが、Raspberry Pi や Jetson Nano のような軽量エッジ環境まで公式が射程に入れてきた のは大きいです。家の IoT ハブに AI を載せるという用途が、いよいよ現実的な消費電力帯に降りてきた印象があります。

エージェントを完全ローカルで動かせると、クラウド往復のレイテンシがゼロ、かつ データが外部に出ないという運用が両立します。プライバシー要件が厳しい用途(医療・社内文書検索・家庭向けアシスタント)で、Gemma 4 のエッジ運用はかなり検討候補になりそうです。

ちなみに ADK との合わせ技

同じ Google Developers Blog から今日もう一本、ADK SkillToolset を使ってエージェンティックなスキルを組む実装ガイドが出ています(2026-04-20)。Gemma 4 の推論側と、ADK のスキル設計側を組み合わせると、オンデバイスでスキル切替しながら動くエージェントが組めます。この合わせ技は、ハード屋がプロトを作るうえで刺さるセット

即レビューしたいですね、これは。

Google Developers Blog — Bring state-of-the-art agentic skills to the edge with Gemma 4(公式)

Google DeepMind — Gemma 4(公式モデルページ)

Google AI for Developers — Gemma 4 モデルカード

みんなの反応

ぬるぽ
(SE・30代)

E4B 系が Jetson Nano 級まで射程に入るなら、家庭向けロボットのスタックとしてかなり現実的。function calling がネイティブ対応なのは、従来のツール呼び出し実装をかなり楽にする。ただオンデバイスでの量子化とメモリ帯域がボトルネックになる現場の話は、実装ガイドの外で議論する必要がある。
島ぐらしCTO
(CTO・リモート勤務)

Apache 2.0 で商用利用の制約が小さく、Raspberry Pi や Jetson Nano まで含めたエッジ実装が公式に見えているのは企業導入にとってありがたい。Llama 4 系との比較で、Gemma 4 はエッジ×エージェンティックに特化したポジションを明確化した印象。プライバシー要件の厳しい社内アプリでローカル推論を採る選択肢が、また一つ現実的になった。
町工場のおやじ
(製造業・50代男性)

Raspberry Pi でオフライン動作、というのは工場の生産管理端末でも使える話。クラウドに繋げない製造ラインのデータを、現場端末で読んで判断するエージェントが現実に組める。中小製造業にとって、AI を外部 API に出さずに使える選択肢は想像以上に大きい。
えかきのたまご
(イラストレーター・20代)

140 言語対応でマルチモーダル、しかもオンデバイスで動くというのは、絵描き視点だと「自分のポートフォリオを端末内だけで AI に整理させる」みたいな使い方ができそう。クラウドに作品をアップロードせずに AI と対話できるのは、著作権の扱いに神経を使う人には朗報。
株よみちゃん
(証券アナリスト)

Apache 2.0 のオープンウェイトでエッジ最適化、というポジションは Google にとって Android / ChromeOS の端末差別化材料。Raspberry Pi や Jetson Nano 級まで含めてローカル実装の裾野を広げる方向で、MSFT Phi 系・Apple Intelligence との 3 つ巴が 2026 年後半のオンデバイス AI 戦線の主戦場になりそう。
X はてブ LINE Feedly