規制

EU AI法

AIシステムをリスクレベル(許容不可、高リスク、限定的、最小限)で規制するEUの規則です。世界初の包括的AI法であり、2024〜2027年にかけて段階的に施行されています。

EU AI法(規則(EU)2024/1689)は、欧州連合のAIシステムに対する水平規制であり、2024年8月に発効し、2027年まで段階的に適用されます。これは主要な法域における世界初の包括的AI法であり、リスクベースのアプローチを採用しています。

リスク区分:

  • 許容不可能なリスク(2025年2月より禁止):社会的スコアリング、公共空間でのリアルタイム生体認証(限定的例外あり)、操作的ダークパターン、脆弱性の悪用、無差別な顔スクレイピング
  • 高リスク(2026年8月より完全義務化):雇用・教育・重要インフラ・医療・法執行・移民・必須サービスにおけるAI。リスク管理、データガバナンス、透明性、人間による監督、正確性、サイバーセキュリティ、適合性評価が必要
  • 限定的リスク: チャットボット、感情認識、ディープフェイク — AIの使用を開示する必要あり(第50条
  • 最小リスク: 規制対象外(例:AIスパムフィルター)

**汎用AI(GPAI)**は独自のトラックを持ちます。すべてのGPAIプロバイダーは訓練データのサマリーを公開し、著作権を尊重し、モデルを文書化する必要があります。システミックリスクのあるGPAI(訓練計算量が10²⁵ FLOPs超)には、追加の安全性・評価・レッドチーミングの義務が課されます。

主要な日程:

  • 2024年8月: 発効
  • 2025年2月: 許容不可能なリスク禁止 + AIリテラシー義務化
  • 2025年8月: GPAI義務開始
  • 2026年8月: 高リスク全義務 + 第50条透明性要件
  • 2027年8月: 既存の高リスクシステムも適合義務

違反に対するペナルティは重大性に応じて最大3,500万ユーロまたは全世界年間売上高の7%(禁止行為の場合)です。本法は域外適用を持ち、EUユーザーにサービスを提供するすべてのAIプロバイダーが対象となります。

出典

関連項目