世界初の包括的AI規制法「EU AI Act」の主要条項が2026年8月2日に施行されます。高リスクに分類されるAIシステムを提供・利用する企業は、適合性評価の実施、技術文書の整備、CEマーキングの取得が義務化されます。違反した場合は全世界年間売上の最大7%(または3,500万ユーロのいずれか高いほう)という重大な制裁金が科される可能性があり、企業の対応状況が注目を集めています。
施行まで4ヶ月を切った現時点でも、欧州委員会から企業が求める詳細な対応指針が十分に提供されていないことへの不満がX上で広がっています。EU拠点のAI企業からは「いつまでに何をすればコンプライアンスを満たせるか明確でない」という声が相次いでいます。欧州委員会の「Digital Omnibus」提案により、一部条項のスケジュールが変更される可能性も残っており、不確実性がさらに高まっています。
高リスクAIの定義には、医療・採用・信用評価・重要インフラ制御など多くの分野が含まれます。これらのシステムを提供または利用する企業はリスク管理システムの確立、データガバナンスの文書化、人間による監督メカニズムの実装が求められます。欧州市場向けにサービスを展開するグローバル企業にとっても対象外ではなく、EU外拠点の企業も欧州ユーザーを持つ限り規制の対象となります。
r/artificialでは「米国はイノベーション優先で規制を緩和しているのに、EUは世界初の包括的AI規制を施行する」という対比への関心が高まっており、グローバル企業がどのように地域ごとの規制差異に対応するかが活発に議論されています。MetaがLlama 4でEUユーザーを除外した判断も「AI Actの不確実性への事前対応」という分析がX上で広まりました。
Hacker Newsでは「EU AI Actのコンプライアンスコストで中小スタートアップが欧州市場から締め出される」という懸念の声が多く、「規制の意図は理解できるが実装コストが不釣り合いに大きい」という意見が見られます。適合性評価や技術文書整備には専門的なリソースが必要であり、大企業と中小企業の間でコンプライアンス負担の非対称性が生じる可能性があります。
AIガバナンスの「グローバルスタンダード」を誰が定めるかを巡る競争は、技術競争と同様に重要な意味を持ちます。EU AI Actの施行が、世界の規制当局や企業の行動にどのような波及効果をもたらすか — 2026年後半の大きな注目点の一つです。