AlibabaのQwenチームは2026年2月、コーディングエージェント向けに最適化された新モデル「Qwen3-Coder-Next」をApache 2.0ライセンスで公開しました。80Bパラメータを持ちながら、推論時にはわずか3Bパラメータのみをアクティブ化する超スパースな混合専門家(MoE)アーキテクチャを採用しており、ローカル環境での実行に適しています。
このモデルはQwen3-Next-80B-A3B-Baseをベースとし、ハイブリッドアテンションとMoEを組み合わせた革新的なアーキテクチャを特徴としています。大規模な実行可能タスク合成、環境インタラクション、強化学習によるエージェント訓練が施されており、低い推論コストで高いコーディング性能とエージェント能力を発揮します。SWE-Bench Verifiedで70.6%、SWE-Bench Multilingualで62.8%、より要求の厳しいSWE-Bench Proでは44.3%を達成しており、10〜20倍のアクティブパラメータを持つモデルと同等の性能を示しています。
r/LocalLLaMAではBlackwellアーキテクチャ対応と効率的な長文処理に注目が集まっています。256Kトークンのネイティブコンテキストにより、リポジトリ全体を分割やチャンキングなしで理解できることも大きな利点です。Hacker Newsでは「強化学習によるエージェント訓練で実環境タスクに強い」との評価が見られ、実用性の高さが認められています。
このモデルの登場により、個人開発者や中小企業がローカル環境でAIコーディングエージェントを運用することが現実的な選択肢となりました。密集モデルと比較して最大10倍のスループット向上が期待でき、クラウドAPIへの依存から脱却しつつも高度なコード支援を受けられる可能性が広がっています。