Mistral AIは、最新モデル「Mistral Small 4」をApache 2.0ライセンスでオープンソース公開しました。119億パラメータ(総数)、256kトークンのコンテキストウィンドウを持ち、これまで別々のモデルファミリー(Instruct、Reasoning、Devstral)に分散していた能力を1つの統合モデルに集約しています。
Mistral Small 4は、128個のエキスパートを持つMixture of Experts(MoE)アーキテクチャを採用しています。トークンあたり4つのエキスパートがアクティブになり、実際に使用されるパラメータは6B(埋め込みと出力層を含めると8B)に抑えられます。これにより、フロンティアクラスの推論・視覚・コーディング品質を、より小型の密なモデルに匹敵する計算コストで実現しています。Mistral Small 3と比較して、レイテンシが40%低下し、スループットは3倍に向上したとのことです。
視覚機能では画像を分析してテキストとともに洞察を提供し、推論モードでは即座の返答と深い思考を切り替えることができます。エージェント機能としてネイティブの関数呼び出しとJSON出力もサポートしています。X上では「2026年最重要のモデルリリースかも」との声が上がり、ダウンロード可能な重みが高く評価されています。一方、Redditでは市場の断片化を懸念する意見もありますが、推論コスト削減効果は広く認められています。
LiveCodeBenchではGPT-OSS 120Bを上回りながら、出力を20%短く抑えることに成功しました。出力が短いことは推論コストの大幅削減につながります。Apache 2.0ライセンスにより、商用・非商用を問わず自由に利用でき、現在Hugging Face、Mistral API、NVIDIA NIMで利用可能です。