395호 (2024년 6월 Issue 2)
4단계의 위험 수준은 금지-고위험-제한된 위험(중위험)-저위험이다. (그림 1) 사회적으로 허용될 수 없는 위험성(unacceptable risk)을 지닌다고 인정되는 8개 유형의 AI 시스템은 개발 및 활용이 전면 금지된다. 다양한 유형의 고위험 AI 시스템에 대해서는 시장 출시 전 적합성 평가(conformity assessment)와 출시 후 엄격한 위험 관리 준수 의무가 부과된다. 제한된 위험(limited risks)에 해당하는 AI 시스템에는 이용자에 대한 투명성(transparency) 의무만을 부과한다. 그 외의 AI 시스템은 자율 규제를 원칙으로 한다.