
ローカル実行できる翻訳モデルが、また 1 段下に降りてきました。
テンセント混元が 4 月 29 日 17 時(中国時間)に公開した Hy-MT1.5-1.8B-1.25bit。1.25 ビット量子化で 440MB まで圧縮、無線 LAN なしでスマホ単体で動き、33 言語 + 5 方言・民族言語、合計 1056 翻訳方向に対応する、というのが量子位がまとめた内容です。
ポイントを 3 つに分けて見ていきます。
ベースは Hunyuan の専門翻訳モデル Hy-mt1.5。原始のパラメータ数は 1.8B、FP16 精度では 3.3GB を占有していたものを、テンセントが 2-bit と 1.25-bit の 2 種類の極限量子化で削り、1.25-bit で 440MB(モデル全体)。スマホの内蔵ストレージにも、メモリにも、無理なく載るサイズです。
注目したいのは、1.8B という小型モデルで、235B 級の大モデルや商用翻訳 API に匹敵する品質を実現 している、と公式が主張している点。記事には「FLORES-200 中外互译」での評価グラフが掲載されており、Google 翻訳を上回るスコアを取っている、とされています。1.8B にしては破格のスペックです。
これがいちばん大事で、日本語は確実に対応しています。記事に「中英、法、日、阿拉伯、俄、藏、蒙古」と明記されており、英日・日英ペアが正面サポートです。ちなみに国際機械翻訳コンペで 30 タイトル獲得、という戦績も持っていて、特に低リソース言語(チベット語・モンゴル語)への対応は中華圏 OSS の中でも目立つレベルです。
ファイル本体は Hugging Face の AngelSlim 組織で配布されています(中国国内向けには ModelScope)。形式は GGUF(llama.cpp 互換)なので、Android スマホ・PC の llama.cpp 系ランタイムでもそのまま動かせます。さらに、テンセント側で「腾讯混元翻訳 Demo 版」という Android APK も配布していて、これは 「後台取詞モード」(バックグラウンド取得モード)に対応。メールやウェブブラウジング中に、バックグラウンドで単語を拾って訳してくれる、という設計です。
デモの動作確認機は、Snapdragon 865 + 8GB RAM という古めの端末。最新フラッグシップでなくても動く、というのが OSS としてはかなり実用的なラインです。
ローカル翻訳の現状を並べると、Apple の Translate アプリ(オフライン対応、約 20 言語)、Google の オンデバイス翻訳(Android、Pixel 系、言語ごとに 30〜50MB)、Apple Intelligence の翻訳(iOS 26 系、A17 以降の端末限定)が既存。
そこにテンセントの 440MB / 33 言語 / GGUF / Hugging Face 公開 が割り込む形。OSS というのが効くポイントで、Apple や Google のオンデバイス翻訳はクローズドのため、サードパーティアプリが組み込めない。テンセントのモデルが商用利用可能なライセンスで配られていれば、国内のスタートアップが旅行アプリや業務翻訳ツールに「自社ホストで」組み込める可能性が出てきます。
見落としがちだけど、ライセンスの確認が重要。Hugging Face の AngelSlim ページで、商用利用の可否(Apache 2.0 / MIT / 研究目的限定など)を必ずチェックしてから本番に組み込むのが現場目線で正しい順序です。記事段階ではライセンス文言が確定明示されていないので、本記事を組み込み判断のソースに使わないでください。
要するに、「クラウド API に依存しない 33 言語翻訳基盤が、1.25 ビット量子化で 440MB という究極の軽さで配られた」という事実が大きい。来週以降、Hugging Face のモデルランキングと、英日ペアの実機評価が出そろえば、評価が固まってくるはずです。続報待ちです。
量子位 — 腾讯开源手机端离线翻译模型,仅0.4G,支持33种语言(中国語)
Hugging Face — AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF(英語)
ModelScope — AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF(中国語)