🕛 2026.4.9 12:12 文:damaha

Meta、新AIモデル「Muse Spark」発表——Llama路線から転換、AIメガネにも統合へ

X はてブ LINE Feedly

Metaの新組織「Superintelligence Labs」がAlexandr Wang率いるチームで9ヶ月かけて開発した初のモデルが、この「Muse Spark」。Llama 4 Maverickの冷ややかな評価を受けて、Metaが本気で仕切り直した結果です。

入力はテキスト・音声・画像の3モード対応。出力はテキストのみですが、個人的に刺さったのは「Instant」と「Thinking」の2モード切り替え。カジュアルな質問にはInstantで即応答、複雑な推論にはThinkingモードで数秒かけて考える。ユーザー体験としてはかなり自然な設計ですね。

もう1つ面白いのが「ショッピングモード」。ユーザーの興味や行動データとLLMを掛け合わせる構成で、Metaが持つSNSデータの強みが活きるポイント。前モデルと比べると、単なるチャットボットから「日常ツール」への転換を狙っているのが分かります。

ハードウェア面では、Meta AIアプリとMeta.aiでの利用に加えて、AIグラスへの展開も案内されています。これ、実物で動くと印象変わりますよ。視覚認識を含むマルチモーダル理解がグラスで活きてくると、目の前のものについてリアルタイムで聞ける体験にかなり近づくはずです。健康分野でも、Metaは医師チームと協力して、一般的な健康関連の質問への応答を強化したとしています。

なお、Muse Spark自体は現時点ではクローズドモデルです。将来版のオープンソース化は示唆されているものの、今回のモデルがそのままオープンソースで出ると確定しているわけではありません。まずはMeta AIアプリとMeta.aiで使え、一部パートナー向けにはAPIのprivate previewも提供。Facebook、Instagram、WhatsApp、Messenger、AIグラスへの順次展開も計画されています。

💬 みんなの反応

論文キマイラ(AI研究者)

Llama路線からのピボット、かなり大胆。Alexandr Wangが9ヶ月で作ったなら設計思想が根本的に違うはず。アーキテクチャの論文待ち
ガジェット番長(テックレビュアー)

Ray-Ban Metaで動くのが一番気になる。視覚認識がリアルタイムで走るなら、ウェアラブルAIの体験が変わる
立ち上げ番長(スタートアップCTO)

ショッピングモードはMetaのSNSデータが武器になるところ。GoogleやAppleにない優位性。広告モデルとの統合が本丸だろう
AI倫理ウォッチャー(テックジャーナリスト)

無料で使えるのはいいけど、SNS行動データとLLMの融合ってプライバシー的にどうなんだろう。EUの規制当局が動きそう
X はてブ LINE Feedly