フランスのAIスタートアップMistral AIが「Mistral 3」シリーズをリリースしました。3B・8B・14Bの効率特化モデルと、41Bのアクティブパラメータを持つスパースMoE(Mixture of Experts:混合専門家)アーキテクチャの「Mistral Large 3」で構成されており、商用モデルに匹敵するコストパフォーマンスをオープンソースで提供するという姿勢を明確にしています。
Mistral Large 3が採用するスパースMoE(混合専門家)アーキテクチャは、全パラメータを常に使うのではなく、入力に応じて専門化した「エキスパート」モジュールのうち一部だけを選択的に活性化する設計です。総パラメータ数は大きくても、実際の推論時にアクティブになるパラメータは41Bにとどめることで、高い性能を維持しながら計算コストを抑えることができます。
この設計はMeta Llama 4やGoogle Geminiシリーズも採用しており、大規模モデルの効率化における主流アーキテクチャになりつつあります。Mistral AIは以前からMoEアーキテクチャ(Mixtral 8x7B, 8x22B)で知られており、Mistral 3でもその強みを継承・発展させた形です。
Reddit上では、ローカル実行可能なモデルとしてMistral 3とMeta Llama 4の比較テストが活発に行われています。特に欧州のプライバシー重視ユーザーから強い支持を得ており、「データをクラウドに送らずにローカルで高品質な推論ができる」という点が評価されています。欧州発のAI企業であるMistral AIがGDPR(一般データ保護規則)への準拠を考慮した開発姿勢を持つことも、欧州ユーザーが同社製品を信頼する背景にあります。
3Bから Large 3(MoEで41Bアクティブ)まで幅広いサイズのモデルを揃えることで、エッジデバイスから高性能サーバーまで異なる用途に対応できる点もMistral 3の強みです。オープンソースAIの競争が激しさを増す中、Mistral AIが欧州発のオルタナティブとして存在感を維持し続けていることは、AI開発の地理的多様性という観点からも注目に値します。ライセンス条件と商用利用の可否については最新の公式ドキュメントを確認することをお勧めします。