로그인|회원가입|고객센터
Top
검색버튼 메뉴버튼

제리 캐플런 스탠퍼드대 법정보학센터 교수 인터뷰

인공지능 오류로 사고 땐 누구 책임? 법적 문제 정리돼야 시장이 커진다

조진서 | 228호 (2017년 7월 Issue 1)
Article at a Glance

2016년 테슬라 자율주행차의 사망 사고는 인공지능 사고의 법적 책임에 대한 관심을 불러일으켰다. 앞으로 이 문제가 정리되지 않으면 인공지능의 산업적 적용과 시장 확대도 더뎌질 수밖에 없다. 우선 사회적 합의를 통해 인공지능 시스템(로봇)과 그 소유주의 법적 책임을 어떻게 나눌 것인지, 또 로봇을 어떻게 효율적으로 처벌할 것인지를 규정해야 한다. 특히 딥러닝 알고리즘의 특성상 눈에 보이는 규칙을 준수하게 하는 것은 불가능한 경우가 있다. 새로운 데이터세트를 통한 재학습(리프로그래밍)을 처벌로서 고려할 필요가 있다.

20230621_133718


기술이 사회를 변화시키는 데는 시간이 필요하다. 특히 기존 법 체제를 바꾸고 이해관계자들을 설득하는 일은 쉽지 않다. 택시업계의 반발로 한국 시장에서 거의 퇴출돼버린 우버가 대표적이다. 자율주행차도 마찬가지다. 테슬라는 이미 인간보다 훨씬 안전하게 차를 운전할 수 있는 자율주행 시스템을 개발했다고 말하지만 전 세계적으로 자율주행차를 전면 허용하고 있는 나라나 지역은 아직 없다. 사고 시 법적 책임을 누가 어떻게 지어야 하는지에 대한 문제 때문이다. 현실적으로 AI가 실생활에 얼마나 빨리, 얼마나 많은 변화를 가져올지는 기술의 발달 속도가 아니라 법의 발전과 적응 속도에 달려 있는 셈이다.

현재 인공지능과 관련한 법적 이슈들 중에 핵심이 되는 것은 두 가지다. 첫째, 인공지능의 오류나 어쩔 수 없는 상황으로 인한 사고 발생 시 법적 책임 문제다. 둘째, 인공지능 그 자체의 법적 지위 문제다. 만일 인공지능이 사람처럼 자체적인 판단력을 가지고 행동하게 된다면 그것을 별개의 법적 주체로 대접해줘야 하느냐는 것이다.

이 문제들에 대한 의견을 구하기 위해 지난 4월 ‘동아 이코노미 서밋’에서 기조강연을 했던 미국 스탠퍼드대 법정보학센터의 제리 캐플런(Jerry Kaplan) 교수에게 다시 조언을 구했다.1 그는 <인간은 필요 없다(Humans need not apply, 2015)> <인공지능의 미래(Artificial Intelligence, 2016)>라는 책에서 인공지능과 법의 문제를 다룬 바 있다.



2016년 테슬라 모델S가 자율주행 중 충돌사고를 내서 탑승자가 사망했다. 테슬라는 처음부터 사고에 대한 책임이 없다고 주장했는데 당신도 그들이 옳다고 생각하는가. 만일 비슷한 이슈가 또 발생한다면 기업에 어떤 조언을 해주겠는가.

사실 법조인들은 이런 이슈에 대해 별로 걱정을 안 한다. 사안을 대수롭지 않게 보기 때문이 아니라 그 반대다. 이미 인공지능 자동 시스템의 법적 책임과 관련한 법과 규제 체제가 상당히 확립돼 있다. 예를 들어 미국에서 GM이나 현대자동차 같은 회사들은 다양한 이슈로 일상적으로 소송의 대상이 되고 있고, 따라서 변호사도 많이 고용하고 있다. 이런 회사들은 어느 상황에서, 얼마만큼의 법적 책임을 져야 하는지에 대해 잘 대비하고 있다.

테슬라의 주장은 법적으로 옳다. 일반적으로 얘기해 인공지능 시스템의 제조회사는 의도하지 않았고 발견하지 못한 디자인의 결함(design flaw)이 있을 때, 그리고 그 결함을 미리 소비자에게 설명하지 않거나 제품을 어떻게 사용해야 하는지 제대로 설명하지 않았을 경우에만 법적인 책임을 진다. 이 사고의 경우 운전자가 자율주행에만 의존해서는 안 되며 자신도 주의를 기울이고 핸들 위에 손을 올려놓아야 한다는 것이 분명히 공지돼 있었다. 운전자는 지침에 맞게 행동하지 않았다. 그러니 테슬라는 특별히 법적 책임을 질 필요가 없는 게 맞다.

그런데 법적인 문제를 떠나서 ‘인간의 실수에 취약성이 있는 그런 제품을 만들어 판매해도 되느냐’의 문제는 있다. 예를 들어 어떤 총 회사가 방아쇠를 당기지 않아도 가끔 총알이 발사되는 총을 제작했다고 해보자. 그는 총을 팔면서 이런 특성을 분명히 설명하고 ‘절대 사람을 향해 겨누지 말라’고 말한다. 이것은 불법이 아니다. 총의 특성과 사용상 주의할 점을 소비자에게 설명했기 때문이다. 그렇다고 해서 그 총을 ‘좋은 제품’이라고 말할 수 있겠는가?

이런 측면에서 볼 때 자율주행차에 대해 우리가 물어야 중요한 질문은 이것이다. ‘자율주행기능을 사용하는 사람들이 제조사의 사용지침을 어기고 위험한 행동을 할 것이라고 예상할 수 있는 상황에서도 그 자율주행기능을 자동차에 탑재해 출시해야 하는가?’

법적인 책임과는 별개로, 나는 좋지 않다고 본다. 이번 테슬라 사고의 경우에도 회사 측은 운전자가 자율주행 모드을 사용하는 동안에도 계속 자동차에 신경을 쓰고 있을 것이라고 기대할 수가 없었다. 이런 점이 인공지능 제품과 관련해 앞으로 큰 이슈가 될 것이다.

가입하면 무료

인기기사
DBR AI

아티클 AI요약 보기

30초 컷!
원문을 AI 요약본으로 먼저 빠르게 핵심을 파악해보세요. 정보 서칭 시간이 단축됩니다!

Click!