Metaが最新の大規模言語モデル「Llama 4」シリーズを発表しました。今回リリースされた「Scout」と「Maverick」は、同社初のMixture of Experts(MoE)アーキテクチャを採用したモデルであり、テキスト・画像・短時間動画を処理できるネイティブマルチモーダル機能を備えています。
特筆すべきはLlama 4 Scoutの1,000万トークンという業界最大級のコンテキストウィンドウです。40兆トークンのデータで学習されたScoutは、17億のアクティブパラメータと16のエキスパートで構成され、1台のNVIDIA H100 GPUで動作可能な効率性を実現しています。Needle-in-a-haystack(干し草の中の針)テストでも優れた精度を維持しており、長文処理において画期的な性能を発揮します。Redditでは「オープンソースAI市場は前年比340%成長」との指摘もあり、DeepSeekと並ぶ存在感を示しています。
一方のMaverickは、同じく17億のアクティブパラメータながら128のエキスパートを持ち、総パラメータ数は4,000億に達します。ベンチマークではGPT-4oやGemini 2.0 Flashを幅広い領域で上回り、推論・コーディングにおいてはDeepSeek v3と同等の結果を達成しています。Hacker Newsでは「1,000万トークンコンテキストは業界最大級、長文処理に革命的」と評価されています。
オープンソースとして公開されたLlama 4は、エンタープライズ導入率が23%から67%に急増するなど、企業での採用も加速しています。IBM watsonx.ai、vLLMなど主要プラットフォームでの利用も可能になっており、オープンソースAIの新たなマイルストーンとなりそうです。