中国のAI研究機関DeepSeekが、1兆パラメータ規模のMixture-of-Experts(MoE:複数の専門家モデルを組み合わせる手法)モデル「DeepSeek V4」をApache 2.0ライセンスで完全公開しました。推定訓練コストがわずか520万ドルでありながら、Claude Opus 4.6など米国の主要フロンティアモデルと競合する性能を達成しており、AI開発コストの常識を根底から覆す存在として注目を集めています。
Apache 2.0ライセンスでの公開は、商用利用・改変・再配布が自由であることを意味します。1兆パラメータという規模でありながら、MoEアーキテクチャの採用により推論時に実際に使用されるパラメータ数は限定的で、一般的なGPU環境での動作が可能です。訓練コストの比較においても、米国の主要モデルが数億から数十億ドルとされる中で520万ドルという数字は、AI開発効率の抜本的な向上を示すものです。
「520万ドルで米国最先端モデルに匹敵」という事実がX上で急速に拡散し、AIの民主化を喜ぶ声と国家安全保障上の懸念が混在する反応を生んでいます。r/LocalLLaMAでは数時間以内にローカル実行の試みが報告され、熱狂的な実験報告が殺到しました。Hacker Newsでは「オープンソースがプロプライエタリモデルを追い越しつつある」という大きな議論のトリガーとなり、中国企業のAI効率に対する米国の過剰投資への批判的分析が上位コメントを占めています。
DeepSeek V4の登場は、AI超大国間の競争の構図を変えつつあります。数百億ドルを投じるOpenAIやGoogleに対し、そのわずかなコストで同等の性能を達成するモデルが完全オープンソースで世界に公開される—この現実は、AI開発コストの行方と、オープンvsクローズドをめぐる戦略的選択に根本的な問いを投げかけています。