← 2026-02-28
Research Community 2026-02-28 Source →

機械論的解釈可能性がMIT Technology Review「2026年ブレイクスルー技術」に選出、AIの内部動作解明へ

MIT Technology Reviewが「機械論的解釈可能性(Mechanistic Interpretability)」を2026年のブレイクスルー技術のひとつに選出しました。AIモデルの内部でどのような処理が行われているかを「顕微鏡」のように観察し、ブラックボックス問題の解決を目指す研究分野です。

Anthropicは2024年、Claudeの内部を覗き込む「顕微鏡」技術を発表し、「マイケル・ジョーダン」や「ゴールデン・ゲート・ブリッジ」といった概念に対応する特徴を特定することに成功しました。2025年にはこの研究をさらに発展させ、プロンプトから応答に至るまでのモデルの思考経路を追跡できるようになりました。さらにClaude Sonnet 4.5のデプロイ前安全性評価では、内部特徴を調べて危険な能力や欺瞞的傾向がないかを検査するという、本番システムへの初の解釈可能性研究の統合を実現しています。

OpenAIは「AI嘘発見器」の開発に取り組んでおり、モデルの内部表現を調べてその状態が真実に対応しているか矛盾しているかを判定する技術を研究中です。Google DeepMindは2025年に「Gemma Scope 2」をリリースし、2億7000万から270億パラメータまでのGemma 3モデル全サイズをカバーする最大規模のオープンソース解釈可能性ツールキットを公開しました。

Hacker Newsでは「AIの『ブラックボックス』問題の解決に向けた重要な一歩」との評価が寄せられています。ただし、「特徴」といった基本概念の厳密な定義がないことや、安全性関連タスクでの実用的手法がまだシンプルなベースラインに及ばないケースがあるなど、課題も残されています。

関連リンク