人工知能システムは、データで訓練される前から人間の脳活動を模倣できる——ジョンズ・ホプキンス大学の研究チームが発表した驚きの研究結果が、Nature Machine Intelligence誌に掲載されました。これは「AIの性能はデータ量で決まる」という従来の常識に一石を投じるものです。
研究を主導した認知科学助教授のMick Bonner氏は「人間はごく少量のデータで視覚を学習している」と指摘しています。これは、何兆ものトークンを学習するChatGPTのような現代のAIとは対照的です。研究チームは、トランスフォーマー、全結合ネットワーク、畳み込みニューラルネットワーク(CNN)という3つの一般的なネットワーク設計に対し、生物学的に着想を得た修正を加えて実験を行いました。
その結果、特に畳み込みニューラルネットワークに対する修正が効果的で、訓練済みの従来型AIシステムに匹敵する脳活動パターンを生成できることがわかりました。つまり、AIがどのように構築されるか(アーキテクチャ)は、どれだけのデータを処理するかと同等かそれ以上に重要である可能性があるのです。
この発見は実用面でも大きな意味を持ちます。現在のAI開発は、数ヶ月にわたる訓練、数十億ドルのコスト、数千メガワットのエネルギーを必要とします。生物学的に着想を得たアーキテクチャを優先するアプローチが確立されれば、ChatGPTのようなシステムを動かすために必要なデータセンターの数を大幅に削減できる可能性があります。今後は、脳科学の知見をAI設計に積極的に取り入れる研究がさらに加速することが予想されます。