로그인|회원가입|고객센터
Top
검색버튼 메뉴버튼

위험도에 따른 AI 시스템의 분류

395호 (2024년 6월 Issue 2)

강지원
김·장 법률사무소 외국변호사(미국 뉴욕주)

필자는 미국 뉴욕 소재 카도조 로스쿨(Cardozo School of Law)을 졸업하고 서울대에서 법학 박사학위를 받았다. 국회 입법조사처에서 AI, 플랫폼, 공정거래, 소비자 보호와 관련한 입법·정책 및 해외 규제 동향에 대한 국회 자문 업무를 맡아 왔다. 김·장 법률사무소에서는 특히 AI를 개발·활용하는 기업들의 위험관리 및 컴플라이언스 자문 업무에 주력하고 있다.
jiwon.kang@kimchang.com
위험도에 따른 AI 시스템의 분류

4단계의 위험 수준은 금지-고위험-제한된 위험(중위험)-저위험이다. (그림 1) 사회적으로 허용될 수 없는 위험성(unacceptable risk)을 지닌다고 인정되는 8개 유형의 AI 시스템은 개발 및 활용이 전면 금지된다. 다양한 유형의 고위험 AI 시스템에 대해서는 시장 출시 전 적합성 평가(conformity assessment)와 출시 후 엄격한 위험 관리 준수 의무가 부과된다. 제한된 위험(limited risks)에 해당하는 AI 시스템에는 이용자에 대한 투명성(transparency) 의무만을 부과한다. 그 외의 AI 시스템은 자율 규제를 원칙으로 한다.