法规
欧盟人工智能法案(EU AI Act)
欧盟根据风险等级(不可接受、高风险、有限风险、最低风险)对 AI 系统进行监管的法规,是全球首部综合性 AI 法律,自 2024 年起分阶段执行至 2027 年。
欧盟人工智能法案(法规 (EU) 2024/1689)是欧盟针对 AI 系统的横向监管法规,自 2024 年 8 月生效,分阶段推进至 2027 年。这是全球主要司法管辖区中首部综合性 AI 法律,采用基于风险的监管路径。
风险等级划分:
- 不可接受风险(自 2025 年 2 月起禁止):社会信用评分、公共场所实时生物特征识别(有限例外)、操纵性暗黑模式、利用弱势群体漏洞、非定向人脸数据抓取
- 高风险(2026 年 8 月起全面实施):用于就业、教育、关键基础设施、医疗、执法、移民、基本服务领域的 AI。须满足风险管理、数据治理、透明度、人工监督、准确性、网络安全及合规评估等要求。
- **有限风险:**聊天机器人、情绪识别、深度伪造——须披露 AI 使用情况(第 50 条)
- **最低风险:**不受监管(如 AI 垃圾邮件过滤器)
**通用人工智能(GPAI)**有独立的监管路径。所有 GPAI 提供商须公开训练数据摘要、尊重版权并记录模型文档。具有系统性风险的 GPAI(训练算力 > 10²⁵ FLOPs)须承担额外的安全、评估和红队测试义务。
关键时间节点:
- **2024 年 8 月:**法规生效
- **2025 年 2 月:**不可接受风险条款 + AI 素养义务
- **2025 年 8 月:**GPAI 义务开始
- **2026 年 8 月:**高风险条款全面实施 + 第 50 条透明度要求
- **2027 年 8 月:**存量高风险系统须完成合规
罚款按违规严重程度分级,禁止性行为最高可处 3500 万欧元或全球年营业额的 7%。该法案具有域外效力:任何向欧盟用户提供服务的 AI 提供商均在约束范围之内。