AI法案风险类别
欧盟AI法案将AI系统分为四个风险类别,每个类别有不同的监管要求。
不可接受风险
对安全、生计或权利构成明确威胁的AI系统。已禁止。
示例:
- 社会评分
- 实时生物识别监控
- 操纵性AI
高风险
关键领域的AI系统,需要进行合格评定和注册。
示例:
- 关键基础设施
- 就业决策
- 教育
- 执法
有限风险
具有透明度义务的AI系统。
示例:
- 聊天机器人
- 情感识别
- 深度伪造
最小风险
根据AI法案没有特定义务的AI系统。
示例:
- 垃圾邮件过滤器
- 视频游戏
- 库存管理
高风险AI的主要要求
风险管理系统
在整个AI生命周期中建立并维护风险管理系统。
技术文档
准备全面的技术文档,证明符合要求。
数据治理
为训练、验证和测试数据集实施数据治理实践。
人工监督
设计系统以实现有效的人工监督和干预能力。
违规处罚
禁止的AI实践最高可达 3500万欧元或全球营业额的7%
高风险AI系统违规最高可达 3500万欧元或全球营业额的7%
其他AI法案违规最高可达 1500万欧元或全球营业额的3%
向监管机构提供虚假信息最高可达 750万欧元或全球营业额的1%
处罚金额按固定金额或全球年营业额百分比中的较高者计算。违规行为还可能导致AI系统在欧盟市场被临时或永久禁止。
实施时间表
2024年8月
AI法案生效(官方公报发布后20天)
2025年2月
禁止AI实践禁令生效(生效后6个月)
2025年8月
通用AI模型规则和治理结构适用(12个月)
2026年8月
附件III高风险AI系统的完整要求生效(24个月)
2027年8月
所有AI系统(包括附件I高风险系统)需完全合规(36个月)
我们的评估涵盖内容
- 风险分类分析
- 合规差距分析
- 技术文档指导
- 合格评定支持