AI法案風險類別
歐盟AI法案將AI系統分為四個風險類別,每個類別有不同的監管要求。
不可接受風險
對安全、生計或權利構成明確威脅的AI系統。已禁止。
範例:
- 社會評分
- 即時生物辨識監控
- 操縱性AI
高風險
關鍵領域的AI系統,需要進行符合性評估和註冊。
範例:
- 關鍵基礎設施
- 就業決策
- 教育
- 執法
有限風險
具有透明度義務的AI系統。
範例:
- 聊天機器人
- 情感識別
- 深度偽造
最小風險
根據AI法案沒有特定義務的AI系統。
範例:
- 垃圾郵件過濾器
- 電子遊戲
- 庫存管理
高風險AI的主要要求
風險管理系統
在整個AI生命週期中建立並維護風險管理系統。
技術文件
準備全面的技術文件,證明符合要求。
資料治理
為訓練、驗證和測試資料集實施資料治理實務。
人工監督
設計系統以實現有效的人工監督和干預能力。
我們的評估涵蓋內容
- 風險分類分析
- 合規差距分析
- 技術文件指導
- 符合性評估支援