フランスのAI企業Mistral AIは3月16日、オープンソースモデル「Mistral Small 4」をApache 2.0ライセンスで公開しました。119Bパラメータのモデルながら、Mixture-of-Experts(MoE)アーキテクチャにより実際に動作するのはトークンあたり6Bパラメータのみという効率的な設計で、インストラクト、推論、マルチモーダルの3つの役割を1モデルで実現しています。
Mistral Small 4は128個のエキスパートを持ち、各トークンに対して4つのエキスパートがアクティブになる構成です。256kトークンのコンテキストウィンドウを備え、推論時に「reasoning_effort」パラメータを調整することで、高速なインストラクションフォロワーと深い推論モデルを切り替える必要がなくなりました。これは従来、Mistral Small(インストラクション)、Magistral(推論)、Pixtral(マルチモーダル)、Devstral(エージェントコーディング)と分かれていた役割を統合したものです。
性能面ではMistral Small 3と比較して、レイテンシーが40%低下し、スループットが3倍に向上しています。GPT-OSS 120BやQwenなどの主要ベンチマークでも同等以上のパフォーマンスを発揮しています。
リリースはGPT-5.4 mini/nanoと同日でしたが、X上では「堂々と勝負する姿勢」「重みを公開しベンチマークで語る透明性」が評価されています。Redditのr/LocalLLaMAでは「現時点で最強のオープンウェイト小型モデル」として8.4/10の高評価を獲得しました。一方でHacker Newsでは出力効率の優位性がコスト面で評価される一方、空間推論とSVG生成が弱点との指摘も出ています。
Apache 2.0ライセンスでの完全公開は、オープンソースAIコミュニティにとって大きな選択肢の追加となり、商用利用を含むさまざまな用途での活用が期待されます。
| - [Introducing Mistral Small 4 | Mistral AI](https://mistral.ai/news/mistral-3) |
|---|---|
| - [Mistral AI Releases Mistral Small 4 | MarkTechPost](https://www.marktechpost.com/2026/03/16/mistral-ai-releases-mistral-small-4-a-119b-parameter-moe-model-that-unifies-instruct-reasoning-and-multimodal-workloads/) |
| - [Mistral Small 4: 128 Experts, 6B Active | Awesome Agents](https://awesomeagents.ai/news/mistral-small-4-moe-apache-configurable-reasoning/) |