← 2026-03-02
Open Source Community 2026-03-02 Source →

Mistral 3ファミリー登場、675B MoEから3Bまで全モデルをApache 2.0で公開

フランスのAIスタートアップMistralは、新たなモデルファミリー「Mistral 3」を発表しました。このリリースには、675Bパラメータ(41Bアクティブ)の大規模混合専門家(MoE)モデル「Mistral Large 3」と、3B・8B・14Bの小型密集モデル「Ministral 3シリーズ」が含まれ、すべてApache 2.0ライセンスで公開されています。

Mistral Large 3はLMArenaリーダーボードでオープンソース非推論モデルカテゴリ第2位にランクインしており、フロンティアモデルに迫る性能を達成しています。一方、小型のMinistral 14Bの推論バリアントはAIME 2025で85%を達成し、そのサイズでは驚異的な性能を示しています。各モデルサイズには基本版、指示調整版、推論版の3つのバリアントが用意され、いずれも画像理解機能を備えています。

技術的な特徴として、40言語以上のネイティブ多言語対応と、256kトークンのコンテキストウィンドウによる長文処理能力が挙げられます。推測デコーディングにより高スループット処理を効率的に実現し、NVIDIA DGX Spark、RTX PC、Jetsonといったエッジデバイスでの最適化された展開も可能です。Hacker Newsでは「トークン効率・多言語対応・長文処理の組み合わせが秀逸」との評価が見られ、X上では「企業は最先端性能より総所有コスト(TCO)を重視する流れがあり、Mistralはそこに賭けている」との分析も上がっています。

Amazon Bedrock、Azure Foundry、Hugging Face、IBM WatsonXなど主要プラットフォームでの即時利用が可能となっており、オープンソースAIエコシステムにとって強力な選択肢となりました。クローズドAPIに依存せずフロンティアクラスの計算能力にアクセスできることは、特にエンタープライズユーザーにとって大きなメリットとなるでしょう。

関連リンク