大規模フロンティアAIモデルの開発者に対してコンプライアンス・安全性・透明性・報告要件を義務付ける「RAISE法(Responsible AI Safety and Explainability Act)」が3月19日に施行されました。OpenAI・Anthropic・Googleといった大手AI企業が主な対象となり、米国でのAI規制の新たな法的基盤が整いました。
RAISE法の核心は、フロンティアモデルの開発者に「内部安全評価の実施と政府への報告」を義務付ける点にあります。これまでAI企業の安全評価は自主的な取り組みにとどまっていましたが、今後は報告義務が生じることで、外部からの検証可能性が高まります。r/MachineLearningでは「報告義務により内部安全評価の外部公開が進む可能性」を歓迎するコメントが上位を占めており、透明性確保への期待が感じられます。
一方で課題も指摘されています。Hacker Newsでは、規制遵守コストが中小AIスタートアップに対して大企業より不均衡に重くのしかかるという競争環境への影響が議論されました。数百億ドルの資金を持つOpenAIやGoogleと異なり、スタートアップにとって法務・コンプライアンス体制の整備は重い負担になりえます。X(旧Twitter)では大手AI企業の法務チームからの公式コメントが少なく、法律専門家による施行内容の解釈解説ツイートが多数流通しています。
RAISE法はEUのAI Actとともに、主要経済圏でのAI規制の法的基盤として機能することになります。今後、各社が規制対応のためにどのような体制を整え、安全評価の結果をどの程度開示するかが業界全体の透明性を左右する重要な分岐点となるでしょう。