フランスのMistral AIが、スマートフォンからエンタープライズまで幅広いデプロイメントに対応する「Mistral 3」ファミリーをリリースした。10のオープンソースモデルがApache 2.0ライセンスで公開され、フラッグシップモデル「Mistral Large 3」は675Bパラメータを誇る。
Mistral 3ファミリーは、エッジデバイスからクラウドまで多様なコンピューティング環境に対応するモデル群で構成されている。アーキテクチャとしてスパースMixture of Experts(MoE)を採用しており、効率的な推論を実現している。
フラッグシップモデルMistral Large 3は、675B総パラメータ(アクティブパラメータは41B)のスパースMoEモデルで、25億パラメータのビジョンエンコーダーを搭載。256Kトークンのコンテキストウィンドウをサポートし、汎用的なマルチモーダルタスクに対応する。3,000台のNVIDIA H200 GPUでトレーニングされた。
小型モデルのMinistral 3シリーズ(3B、8B、14B)は、それぞれbase、instruct、reasoningの3バリエーションが提供される。全モデルが画像理解能力を持ち、Apache 2.0ライセンスで公開されている。これにより、スマートフォンやエッジデバイスでの高性能AI推論が可能になる。
Apache 2.0ライセンスでの公開は、オープンソースAI分野における重要な動きだ。商用利用が自由に可能であり、企業は自社製品への組み込みやカスタマイズを制限なく行える。これはMeta Llama系モデルの制限付きライセンスとは対照的であり、オープンソースコミュニティからは歓迎されている。
Mistral AIは欧州発のAI企業として、OpenAIやAnthropicといった米国勢との差別化を図りつつ、オープンソース戦略でエコシステムの拡大を狙っている。