Alibabaが「Qwen3.5 Small」シリーズを公開しました。0.8B・2B・4B・9Bパラメータの4モデルで構成され、Apache 2.0ライセンスで商用利用も無償で可能です。なかでも9BモデルはGPQA Diamond(科学的・専門的な知識の深さを測るベンチマーク)で81.7点を記録し、120BパラメータのGPT-OSS-120Bの71.5点を大きく上回りました。全モデルがテキスト・画像・動画のネイティブマルチモーダル対応を備えています。
Qwen3.5 Smallシリーズの最大の特徴は、パラメータ数(モデルの規模を示す値)を大幅に抑えながら、はるかに大きなモデルを性能面で上回ったことです。9Bパラメータで120Bを超えるというのは単純な比較でも約13分の1のサイズであり、モデルアーキテクチャの効率化が急速に進んでいることを示しています。ネイティブマルチモーダル対応は、テキスト・画像・動画の入力を専用のサブモジュールに分けず、統一されたモデルとして処理できることを意味し、エッジデバイスや組み込みシステムでのマルチモーダルAI活用の可能性を広げます。Apache 2.0での公開は、商用利用・再配布・改変がすべて自由であることを意味し、企業や個人開発者がカスタマイズして活用しやすい点も歓迎されています。
X(旧Twitter)では「9Bで120Bを超えたのはモデル設計の革命」と称賛する声が相次ぎ、エッジデバイスや組み込みシステムへの活用事例の共有が活発に行われています。Reddit(r/LocalLLaMa)ではQwen3.5 9BをRaspberry Pi 5やMacBook Air M4などの手元の機材で動かすベンチマーク結果が次々と投稿されており、実用性の高さが実証されています。Hacker NewsではApache 2.0での公開を歓迎する声が多く、「商用利用可能な最強のエッジモデル」という評価が上位コメントに並んでいます。
より小さなモデルがより大きなモデルを超えるという流れは、AIの民主化を加速させる可能性があります。スマートフォン・組み込みデバイス・ローカルPCで動作するマルチモーダルAIが現実的な選択肢になることで、クラウド依存なしに高度なAI機能を活用できる環境が整いつつあります。Qwen3.5 Smallは、「小さいモデルで十分に賢い」という時代の到来を告げる存在として、今後の業界動向を左右する注目株です。