← 2026-04-24
Research Community 2026-04-24 Source →

Sakana AI「AI Scientist-v2」がICLR査読を通過した論文の手法をNatureが掲載——「完全自律AI研究」の現実と課題

東京に拠点を置くSakana AIが開発した「AI Scientist-v2」が自律的に生成した論文がICLR 2025のワークショップ(研究発表会)で採択されたことを受け、その研究プロセスを解説した論文「Towards end-to-end automation of AI research」がNature誌(2026年3月号)に掲載されました。AIが査読(ピアレビュー)プロセスを通過した最初の公式事例として科学コミュニティに波紋を広げており、AI研究の自動化が学術制度そのものに突きつける問いが改めて議論されています。

ICLR採択の詳細——ワークショップ通過でも「歴史的事例」

Sakana AIの公式ブログによると、AI Scientist-v2はICLR 2025のワークショップにおいて3本の完全自律生成論文を投稿し、そのうち1本が採択されました。採択された論文はニューラルネットワーク学習における合成正則化(Compositional Regularization)を探求したもので、査読者3名からそれぞれ6・7・6点のスコアを獲得し、平均6.33点で当該ワークショップの上位約45%に入りました。TechCrunchは「ワークショップの採択率は60〜70%と本会議(20〜30%)より大幅に高い」との留保を付けつつも、AIが同じ査読プロセスを通過した事実の意義を認めています。なお、Sakana AIは採択後にその論文を最終的な公式出版前に取り下げており、現在は実験的記録として公開されている状況です。

一方、Nature誌に掲載されたのはAI Scientistが書いた論文ではなく、Chris Luら人間の研究者がAI Scientistシステムの設計・手法・結果を解説した論文です。「AIが書いた論文がNatureに載った」との一部報道は正確性を欠くとの指摘もあり、Sakana AIとNature誌が公開した情報を正確に読み解く必要があります。

SNSでの反応は鋭い問いかけを含んでいます。X(旧Twitter)では「査読制度そのものが崩壊しつつある。AIが大量の論文を生成し研究者が読み切れなくなる未来が見えてきた」との声が広まり、Reddit r/MachineLearningでは「論文の品質より量が評価される現行制度の欠陥をAIが露呈させた」との本質的な批判が上位に。Hacker Newsでは「AIで論文を書くことの倫理よりも、査読者もAIを使い始めたら何が起きるかを心配すべき」という先見的コメントが注目を集めました。

科学的知識生産の「量と質」を問い直す転換点

AI Scientist-v2の事例が提起する問いは単純ではありません。「AIが書いた論文を人間の査読者が評価する」という実験から、研究コミュニティは科学的知識の生産プロセスをどう再設計するかという課題に直面しています。研究のアイデア生成・実験設計・結果解析・論文執筆の全工程を自律的にこなすAIが登場した今、学術誌の査読基準や研究者の役割定義そのものの見直しが急がれます。Sakana AIはこの実験を「AI研究の完全自動化に向けた第一歩」と位置付けており、今後のバージョンアップにおいてより高品質な論文生成を目指すとしています。

関連リンク