規制
EU AI法
AIシステムをリスクレベル(許容不可、高リスク、限定的、最小限)で規制するEUの規則です。世界初の包括的AI法であり、2024〜2027年にかけて段階的に施行されています。
EU AI法(規則(EU)2024/1689)は、欧州連合のAIシステムに対する水平規制であり、2024年8月に発効し、2027年まで段階的に適用されます。これは主要な法域における世界初の包括的AI法であり、リスクベースのアプローチを採用しています。
リスク区分:
- 許容不可能なリスク(2025年2月より禁止):社会的スコアリング、公共空間でのリアルタイム生体認証(限定的例外あり)、操作的ダークパターン、脆弱性の悪用、無差別な顔スクレイピング
- 高リスク(2026年8月より完全義務化):雇用・教育・重要インフラ・医療・法執行・移民・必須サービスにおけるAI。リスク管理、データガバナンス、透明性、人間による監督、正確性、サイバーセキュリティ、適合性評価が必要
- 限定的リスク: チャットボット、感情認識、ディープフェイク — AIの使用を開示する必要あり(第50条)
- 最小リスク: 規制対象外(例:AIスパムフィルター)
**汎用AI(GPAI)**は独自のトラックを持ちます。すべてのGPAIプロバイダーは訓練データのサマリーを公開し、著作権を尊重し、モデルを文書化する必要があります。システミックリスクのあるGPAI(訓練計算量が10²⁵ FLOPs超)には、追加の安全性・評価・レッドチーミングの義務が課されます。
主要な日程:
- 2024年8月: 発効
- 2025年2月: 許容不可能なリスク禁止 + AIリテラシー義務化
- 2025年8月: GPAI義務開始
- 2026年8月: 高リスク全義務 + 第50条透明性要件
- 2027年8月: 既存の高リスクシステムも適合義務
違反に対するペナルティは重大性に応じて最大3,500万ユーロまたは全世界年間売上高の7%(禁止行為の場合)です。本法は域外適用を持ち、EUユーザーにサービスを提供するすべてのAIプロバイダーが対象となります。