フランスのAI企業Mistral AIは3月16日、119億パラメータのMixture-of-Experts(MoE)モデル「Mistral Small 4」をリリースしました。指示応答、推論、マルチモーダル理解、エージェント型コーディングを単一のデプロイメントで統合し、Apache 2.0ライセンスのもとオープンソースとして公開されています。
Mistral Small 4は128個のエキスパートを持ち、トークンごとに4つのエキスパートがアクティブになる構造で、実質的なアクティブパラメータは6B(埋め込み・出力層を含めると8B)に抑えられています。256Kトークンのコンテキストウィンドウをサポートし、テキストと画像の両方を入力として受け付けます。前バージョンのSmall 3と比較して、レイテンシ最適化設定で処理時間を40%削減、スループット最適化設定で1秒あたりのリクエスト数を3倍に向上させたと発表されています。また、推論モデルと高速モデルを切り替える必要なく、推論時にreasoning_effortパラメータを調整できる設計も特徴です。
Hacker Newsでは「8.4/10の評価を獲得。オープンウェイトの小型モデルとしては現時点で最強だが、Qwen3.5 122Bには及ばない」との評価が上がっています。Redditのr/LocalLLaMAでは「構造化タスクでの性能を評価するが、発売直後は安定性に問題あり」との報告も見られ、vLLMなどのサービングスタックでの運用には若干の注意が必要なようです。Hugging FaceやNVIDIA NIMでの複数のチェックポイントバリアントも公開されています。
オープンソースLLM市場において、単一モデルで複数の用途をカバーできる「統合型」アプローチが主流になりつつあり、Mistral Small 4はその最新の到達点と言えそうです。