← 2026-03-01
Open Source Community 2026-03-01 Source →

Intel OpenVINO 2026がリリース、NPUサポート強化とLLM対応拡充でエッジAI推論を加速

Intelがオープンソースの推論ツールキット「OpenVINO 2026.0」をリリースしました。Intel Core UltraシリーズのNPU(ニューラルプロセッシングユニット)サポートの強化と、大規模言語モデル(LLM)対応の拡充が主なアップデートとなっています。

OpenVINO 2026.0では、NPUプラグインとのコンパイラ統合が強化され、事前コンパイル(AOT)およびオンデバイスコンパイルが、OEMドライバの更新に依存せずに利用可能になりました。LLMサポートについては、CPUおよびGPU実行向けにGPT-OSS-20B、MiniCPM-V-4_5-8B、MiniCPM-o-2.6モデルのサポートが追加されています。NPU向けの小型モデルとしては、MiniCPM-o-2.6、Qwen2.5-1B-Instruct、Qwen3-Embedding-0.6B、Qwen-2.5-coder-0.5Bがサポートされました。

さらに、MoE(Mixture of Experts)LLM向けの3D MatMulsに対するint4データ対応重み圧縮が導入され、メモリ・帯域幅要件の削減と精度向上を両立しています。VLM(視覚言語モデル)パイプラインのサポートにより、Agentic AIフレームワークとの統合も容易になりました。NPUでのスペキュラティブデコーディング対応により、推論性能も向上しています。

Hacker Newsでは、エッジデバイスでのAI推論への関心とともに、NVIDIAとの競争力についての議論が展開されています。Intel NPU搭載デバイスでのローカルAI活用を検討している開発者にとって、OpenVINO 2026.0は注目すべきアップデートです。

関連リンク