← 2026-03-24
Open Source Community 2026-03-24 Source →

Mistral、119BパラメータのSmall 4をApache 2.0で公開 — 1モデルで高速応答・深層推論・マルチモーダルを実現

フランスのAI企業Mistral AIが、119B(1,190億)パラメータのMixture of Experts(MoE)モデル「Mistral Small 4」をApache 2.0ライセンスで公開しました。128個のエキスパートモジュールのうち、1トークンあたり4個のみがアクティブになる設計で、実効パラメータ数は6B(埋め込み・出力層含めると8B)に抑えられています。

注目すべきは「1つのモデルで3つの役割」を果たす統合アーキテクチャです。一般的なチャット、コーディング、エージェントタスク、そして複雑な推論まで単一モデルでカバーします。25万6,000トークンのコンテキストウィンドウを備え、テキストと画像の両方を入力として受け付けるマルチモーダル対応も実現しました。さらに「設定可能な推論努力(Configurable Reasoning Effort)」機能により、高速・低レイテンシ応答と深層推論モードを切り替えられます。

性能面では、推論モードでGPT-OSS 120Bと同等以上のスコアを達成しながら、出力は大幅に短縮されています。AA LCRベンチマークではわずか1.6K文字で0.72を記録し、同等性能を出すのに5.8〜6.1K文字を要するQwenモデルの3.5〜4分の1の出力量で済んでいます。X上では「なぜ1つのシステムに5つのモデルが必要なのか?という問いへの回答」と評価されています。

一方、Reddit上では「Smallの名前は誤解を招く。H100が4枚必要なモデルは実用上小さくない」との批判もあります。開発者はNVIDIA build.nvidia.comで無料プロトタイピングが可能で、本番環境向けにはNVIDIA NIMとして最適化されたコンテナ推論も初日から提供されています。オープンソースでありながらエンタープライズ級の性能を持つモデルとして、オンプレミス展開を検討する企業にとって有力な選択肢となりそうです。

関連リンク