← 2026-03-20
Open Source Community 2026-03-20 Source →

Mistral Small 4リリース — 119Bパラメータ、Apache 2.0で公開、3つのモデルの役割を1つに統合

フランスのAI企業Mistral AIは3月16日、オープンソースモデル「Mistral Small 4」をApache 2.0ライセンスで公開しました。119Bパラメータのモデルながら、Mixture-of-Experts(MoE)アーキテクチャにより実際に動作するのはトークンあたり6Bパラメータのみという効率的な設計で、インストラクト、推論、マルチモーダルの3つの役割を1モデルで実現しています。

Mistral Small 4は128個のエキスパートを持ち、各トークンに対して4つのエキスパートがアクティブになる構成です。256kトークンのコンテキストウィンドウを備え、推論時に「reasoning_effort」パラメータを調整することで、高速なインストラクションフォロワーと深い推論モデルを切り替える必要がなくなりました。これは従来、Mistral Small(インストラクション)、Magistral(推論)、Pixtral(マルチモーダル)、Devstral(エージェントコーディング)と分かれていた役割を統合したものです。

性能面ではMistral Small 3と比較して、レイテンシーが40%低下し、スループットが3倍に向上しています。GPT-OSS 120BやQwenなどの主要ベンチマークでも同等以上のパフォーマンスを発揮しています。

リリースはGPT-5.4 mini/nanoと同日でしたが、X上では「堂々と勝負する姿勢」「重みを公開しベンチマークで語る透明性」が評価されています。Redditのr/LocalLLaMAでは「現時点で最強のオープンウェイト小型モデル」として8.4/10の高評価を獲得しました。一方でHacker Newsでは出力効率の優位性がコスト面で評価される一方、空間推論とSVG生成が弱点との指摘も出ています。

Apache 2.0ライセンスでの完全公開は、オープンソースAIコミュニティにとって大きな選択肢の追加となり、商用利用を含むさまざまな用途での活用が期待されます。

関連リンク

- [Introducing Mistral Small 4 Mistral AI](https://mistral.ai/news/mistral-3)
- [Mistral AI Releases Mistral Small 4 MarkTechPost](https://www.marktechpost.com/2026/03/16/mistral-ai-releases-mistral-small-4-a-119b-parameter-moe-model-that-unifies-instruct-reasoning-and-multimodal-workloads/)
- [Mistral Small 4: 128 Experts, 6B Active Awesome Agents](https://awesomeagents.ai/news/mistral-small-4-moe-apache-configurable-reasoning/)