服务/AI法案

AI法案合规

应对欧盟AI法案要求。确定您的AI系统风险分类,识别合规差距,并获得量身定制的建议。

开始评估

AI法案风险类别

欧盟AI法案将AI系统分为四个风险类别,每个类别有不同的监管要求。

不可接受风险

对安全、生计或权利构成明确威胁的AI系统。已禁止。

示例:

  • 社会评分
  • 实时生物识别监控
  • 操纵性AI

高风险

关键领域的AI系统,需要进行合格评定和注册。

示例:

  • 关键基础设施
  • 就业决策
  • 教育
  • 执法

有限风险

具有透明度义务的AI系统。

示例:

  • 聊天机器人
  • 情感识别
  • 深度伪造

最小风险

根据AI法案没有特定义务的AI系统。

示例:

  • 垃圾邮件过滤器
  • 视频游戏
  • 库存管理

高风险AI的主要要求

风险管理系统

在整个AI生命周期中建立并维护风险管理系统。

技术文档

准备全面的技术文档,证明符合要求。

数据治理

为训练、验证和测试数据集实施数据治理实践。

人工监督

设计系统以实现有效的人工监督和干预能力。

违规处罚

禁止的AI实践最高可达 3500万欧元或全球营业额的7%
高风险AI系统违规最高可达 3500万欧元或全球营业额的7%
其他AI法案违规最高可达 1500万欧元或全球营业额的3%
向监管机构提供虚假信息最高可达 750万欧元或全球营业额的1%

处罚金额按固定金额或全球年营业额百分比中的较高者计算。违规行为还可能导致AI系统在欧盟市场被临时或永久禁止。

实施时间表

2024年8月

AI法案生效(官方公报发布后20天)

2025年2月

禁止AI实践禁令生效(生效后6个月)

2025年8月

通用AI模型规则和治理结构适用(12个月)

2026年8月

附件III高风险AI系统的完整要求生效(24个月)

2027年8月

所有AI系统(包括附件I高风险系统)需完全合规(36个月)

我们的评估涵盖内容

  • 风险分类分析
  • 合规差距分析
  • 技术文档指导
  • 合格评定支持

开始您的评估

我们的AI法案评估帮助您了解合规义务,并识别当前方法中的差距。

开始评估