フランスのMistral AIがMistral 3ファミリーの一部としてLarge 3(675Bパラメータ、MoE)をリリースした。ネイティブ視覚機能と最先端の指示追従能力を搭載し、GPT-5.1やClaude Opus 4.5と競合しながら、大幅なコスト効率を実現している。
Mistral Large 3は、フランスのAIスタートアップMistral AIが開発した最新のフラッグシップモデルである。スパースMixture-of-Experts(MoE)アーキテクチャを採用し、総パラメータ数675B(うち視覚エンコーダー25億、言語部分約673B)、アクティブパラメータ数41Bという構成になっている。
コスト効率の面で際立った特徴を持つ。入力トークンではGPT-5.1の2.5分の1、Claude Opus 4.5の10分の1という驚異的な低価格を実現。具体的には、1Mトークンあたり約0.0057ドルで、GPT-5.1のほぼ半額でありながら3.5倍のトークンを生成できる。
性能面では、GPT-5.1、Claude Opus 4.5、Gemini 3 Proといったフロンティアモデルに迫る水準を達成している。ただし、最も難易度の高い推論ベンチマークや複雑なエージェント型タスクでは、これらのモデルにまだ若干及ばない部分もある。
最大の差別化ポイントは「オープンウェイト」であることだ。GPT-5.1、Claude Opus 4.5、Gemini 3 Proと競合するフラッグシップ級モデルで、唯一セルフホスティングが可能である。これにより、データプライバシーを重視する企業や、カスタマイズが必要なユースケースにとって、極めて魅力的な選択肢となっている。
ネイティブの視覚機能も搭載しており、テキストだけでなく画像を含むマルチモーダルな入力に対応する。