Intelは、大規模言語モデル(LLM)のサポートを拡張し、Intel Core Ultra向けのNPUサポートを改善したOpenVINO 2026.0をリリースした。CPU、NPU、GPU向けAI機能が大幅に強化されている。
OpenVINO 2026.0は、IntelのCPU、NPU、GPU全製品にわたるAI機能を強化するメジャーリリースである。特にLLMサポートの拡張とIntel Core Ultra向けNPUサポートの改善が主要なアップデートとなる。
LLMサポートの面では、CPUとGPU向けにGPT-OSS-20B、MiniCPM-V-4_5-8B、MiniCPM-o-2.6モデルの実行サポートを追加。NPU向けには、より小規模なモデルとしてMiniCPM-o-2.6、Qwen2.5-1B-Instruct、Qwen3-Embedding-0.6B、Qwen-2.5-coder-0.5Bのサポートを提供する。
さらに、MoE(Mixture of Experts)LLM向けに3D MatMulのint4データ認識重み圧縮をサポート。これにより、メモリ・帯域幅要件を削減しながら精度を向上させることが可能になった。
NPUサポートの面では、Intel Core Ultra NPU向けにコンパイラ統合を強化。OEMドライバーの更新に依存せず、事前コンパイルとオンデバイスコンパイルをサポートする。また、Agentic AIフレームワークとの統合を強化するVLMパイプラインサポート、NPU上での投機的デコーディングサポートによるパフォーマンス向上など、多くの改善が含まれている。