
Metaの新組織「Superintelligence Labs」がAlexandr Wang率いるチームで9ヶ月かけて開発した初のモデルが、この「Muse Spark」。Llama 4 Maverickの冷ややかな評価を受けて、Metaが本気で仕切り直した結果です。
入力はテキスト・音声・画像の3モード対応。出力はテキストのみですが、個人的に刺さったのは「Instant」と「Thinking」の2モード切り替え。カジュアルな質問にはInstantで即応答、複雑な推論にはThinkingモードで数秒かけて考える。ユーザー体験としてはかなり自然な設計ですね。
もう1つ面白いのが「ショッピングモード」。ユーザーの興味や行動データとLLMを掛け合わせる構成で、Metaが持つSNSデータの強みが活きるポイント。前モデルと比べると、単なるチャットボットから「日常ツール」への転換を狙っているのが分かります。
ハードウェア面では、Meta AIアプリとMeta.aiでの利用に加えて、AIグラスへの展開も案内されています。これ、実物で動くと印象変わりますよ。視覚認識を含むマルチモーダル理解がグラスで活きてくると、目の前のものについてリアルタイムで聞ける体験にかなり近づくはずです。健康分野でも、Metaは医師チームと協力して、一般的な健康関連の質問への応答を強化したとしています。
なお、Muse Spark自体は現時点ではクローズドモデルです。将来版のオープンソース化は示唆されているものの、今回のモデルがそのままオープンソースで出ると確定しているわけではありません。まずはMeta AIアプリとMeta.aiで使え、一部パートナー向けにはAPIのprivate previewも提供。Facebook、Instagram、WhatsApp、Messenger、AIグラスへの順次展開も計画されています。