スタンフォード大学のHuman-Centered AI(HAI)研究所が2026年版AIインデックス報告書を発表しました。基盤モデルの透明性スコアが前年の58から40へと急落し、AIインシデントが233件から362件に増加した一方、AI投資は130%増という相反する傾向が浮き彫りになっています。さらに若手開発者の雇用が20%減少するという「生産性向上の恩恵が雇用には回らない」という現実も記録されています。
スタンフォードHAIによると、今回の報告書で最も注目を集めたのは透明性と投資の逆相関関係です。X上では「投資が増えるほど透明性が下がる——最悪の組み合わせ」という批判ツイートが多数リツイートされました。r/artificialでは「透明性スコアが40に落ちながら投資が130%増というのが最も重要なデータポイント」というコメントが高い評価を得ており、資本集中がAIの不透明化を加速させているとの解釈が広まっています。
米国が政府によるAI規制への信頼度で調査国中最下位(31%)という結果は、国内外の論者から特に注目されました。ソフトウェアエンジニアリングベンチマーク(SWEベンチ)での100%達成など技術進歩を示すデータも同報告書には含まれますが、Hacker Newsでは「AI開発者と一般市民の間で基本的な事実認識がずれてきた」という分析コメントが人気を集め、信頼のギャップが技術進歩より速く広がっていることへの懸念が多く示されています。
AIインシデントが前年比55%増の362件に達した背景には、AI活用の拡大に伴う表面積の拡大があると考えられます。しかし、透明性スコアの低下は、インシデントの発生をユーザーや研究者が把握・検証しにくい状況が同時に進んでいることを示唆しています。公開基準の厳格化と説明責任の強化なしに投資と活用が拡大し続けることのリスクを、2026年のAIインデックスは鮮明に可視化しています。若手開発者の雇用20%減というデータとあわせて、「AI恩恵の分配」という問いが今後ますます重要な政策課題として浮上してくるでしょう。