Alibaba Cloudが最新の大規模言語モデル「Qwen 3.5」をApache 2.0ライセンスで完全公開しました。総パラメータ数397Bながら実際の推論時には17Bのみが活性化されるMoE(Mixture of Experts:専門家混合)アーキテクチャを採用し、AIME 2025(数学オリンピック相当)で92.3%、プログラミングコンテスト評価指標LiveCodeBench v6で74.1%を達成。119言語に対応するこのモデルは、商用利用可能なオープンソースとして最高水準のベンチマークスコアを記録しています。
Qwen 3.5が採用するMoEアーキテクチャは、全パラメータを同時使用せず入力内容に応じて必要な「専門家」モジュールのみを選択的に起動する仕組みです。総パラメータ397Bのうち実推論時のアクティブパラメータは17Bに抑えられるため、同等の密結合モデルと比較して計算コストと応答速度で大幅な優位性を持ちます。数学・コーディング・多言語理解の各ベンチマークで商用モデルのGPT-5に迫るスコアを示しており、Apache 2.0という最も制限の少ないライセンスのもとで企業が無償で商用製品に組み込めることが最大の差別化ポイントとなっています。
X上では「中国発モデルがまた壁を壊した。Apache 2.0で商用利用可能なのも大きい」という興奮が広がり、ローカルLLM愛好家コミュニティ・r/LocalLLaMAでは「ローカル実行の最有力候補」として各種ハードウェアでの実機テスト報告が急増しています。Hacker Newsでも「MoEアーキテクチャの効率性が証明された。西側モデルへの本物の追い上げ」との評価が目立ちます。
Qwen 3.5の登場は、オープンソースAIの地政学的な分布を象徴しています。かつてMeta(Llama)が独占していた高性能オープンウェイトモデルの市場に、AlibabaのQwen、DeepSeekのV3シリーズと続く中国発モデルが相次いで参入し、Mistralら欧州勢も追随しています。Apache 2.0での完全公開は、特許使用料や利用制限なしに誰でも改変・再配布・商用利用が可能なことを意味し、スタートアップから大企業まで独自AIアプリケーションの構築コストを根本から引き下げるインパクトを持ちます。2026年のオープンソースAI競争は、単なる性能争いから「誰がより自由に使えるモデルを提供できるか」という次の段階に入りつつあります。