제리 캐플런 스탠퍼드대 법정보학센터 교수 인터뷰

인공지능 오류로 사고 땐 누구 책임? 법적 문제 정리돼야 시장이 커진다

228호 (2017년 7월 Issue 1)

Article at a Glance

2016년 테슬라 자율주행차의 사망 사고는 인공지능 사고의 법적 책임에 대한 관심을 불러일으켰다. 앞으로 이 문제가 정리되지 않으면 인공지능의 산업적 적용과 시장 확대도 더뎌질 수밖에 없다. 우선 사회적 합의를 통해 인공지능 시스템(로봇)과 그 소유주의 법적 책임을 어떻게 나눌 것인지, 또 로봇을 어떻게 효율적으로 처벌할 것인지를 규정해야 한다. 특히 딥러닝 알고리즘의 특성상 눈에 보이는 규칙을 준수하게 하는 것은 불가능한 경우가 있다. 새로운 데이터세트를 통한 재학습(리프로그래밍)을 처벌로서 고려할 필요가 있다.
094



기술이 사회를 변화시키는 데는 시간이 필요하다. 특히 기존 법 체제를 바꾸고 이해관계자들을 설득하는 일은 쉽지 않다. 택시업계의 반발로 한국 시장에서 거의 퇴출돼버린 우버가 대표적이다. 자율주행차도 마찬가지다. 테슬라는 이미 인간보다 훨씬 안전하게 차를 운전할 수 있는 자율주행 시스템을 개발했다고 말하지만 전 세계적으로 자율주행차를 전면 허용하고 있는 나라나 지역은 아직 없다. 사고 시 법적 책임을 누가 어떻게 지어야 하는지에 대한 문제 때문이다. 현실적으로 AI가 실생활에 얼마나 빨리, 얼마나 많은 변화를 가져올지는 기술의 발달 속도가 아니라 법의 발전과 적응 속도에 달려 있는 셈이다.

현재 인공지능과 관련한 법적 이슈들 중에 핵심이 되는 것은 두 가지다. 첫째, 인공지능의 오류나 어쩔 수 없는 상황으로 인한 사고 발생 시 법적 책임 문제다. 둘째, 인공지능 그 자체의 법적 지위 문제다. 만일 인공지능이 사람처럼 자체적인 판단력을 가지고 행동하게 된다면 그것을 별개의 법적 주체로 대접해줘야 하느냐는 것이다.

이 문제들에 대한 의견을 구하기 위해 지난 4월 ‘동아 이코노미 서밋’에서 기조강연을 했던 미국 스탠퍼드대 법정보학센터의 제리 캐플런(Jerry Kaplan) 교수에게 다시 조언을 구했다.1 그는 <인간은 필요 없다(Humans need not apply, 2015)> <인공지능의 미래(Artificial Intelligence, 2016)>라는 책에서 인공지능과 법의 문제를 다룬 바 있다.



2016년 테슬라 모델S가 자율주행 중 충돌사고를 내서 탑승자가 사망했다. 테슬라는 처음부터 사고에 대한 책임이 없다고 주장했는데 당신도 그들이 옳다고 생각하는가. 만일 비슷한 이슈가 또 발생한다면 기업에 어떤 조언을 해주겠는가.

사실 법조인들은 이런 이슈에 대해 별로 걱정을 안 한다. 사안을 대수롭지 않게 보기 때문이 아니라 그 반대다. 이미 인공지능 자동 시스템의 법적 책임과 관련한 법과 규제 체제가 상당히 확립돼 있다. 예를 들어 미국에서 GM이나 현대자동차 같은 회사들은 다양한 이슈로 일상적으로 소송의 대상이 되고 있고, 따라서 변호사도 많이 고용하고 있다. 이런 회사들은 어느 상황에서, 얼마만큼의 법적 책임을 져야 하는지에 대해 잘 대비하고 있다.

테슬라의 주장은 법적으로 옳다. 일반적으로 얘기해 인공지능 시스템의 제조회사는 의도하지 않았고 발견하지 못한 디자인의 결함(design flaw)이 있을 때, 그리고 그 결함을 미리 소비자에게 설명하지 않거나 제품을 어떻게 사용해야 하는지 제대로 설명하지 않았을 경우에만 법적인 책임을 진다. 이 사고의 경우 운전자가 자율주행에만 의존해서는 안 되며 자신도 주의를 기울이고 핸들 위에 손을 올려놓아야 한다는 것이 분명히 공지돼 있었다. 운전자는 지침에 맞게 행동하지 않았다. 그러니 테슬라는 특별히 법적 책임을 질 필요가 없는 게 맞다.

그런데 법적인 문제를 떠나서 ‘인간의 실수에 취약성이 있는 그런 제품을 만들어 판매해도 되느냐’의 문제는 있다. 예를 들어 어떤 총 회사가 방아쇠를 당기지 않아도 가끔 총알이 발사되는 총을 제작했다고 해보자. 그는 총을 팔면서 이런 특성을 분명히 설명하고 ‘절대 사람을 향해 겨누지 말라’고 말한다. 이것은 불법이 아니다. 총의 특성과 사용상 주의할 점을 소비자에게 설명했기 때문이다. 그렇다고 해서 그 총을 ‘좋은 제품’이라고 말할 수 있겠는가?

이런 측면에서 볼 때 자율주행차에 대해 우리가 물어야 중요한 질문은 이것이다. ‘자율주행기능을 사용하는 사람들이 제조사의 사용지침을 어기고 위험한 행동을 할 것이라고 예상할 수 있는 상황에서도 그 자율주행기능을 자동차에 탑재해 출시해야 하는가?’

법적인 책임과는 별개로, 나는 좋지 않다고 본다. 이번 테슬라 사고의 경우에도 회사 측은 운전자가 자율주행 모드을 사용하는 동안에도 계속 자동차에 신경을 쓰고 있을 것이라고 기대할 수가 없었다. 이런 점이 인공지능 제품과 관련해 앞으로 큰 이슈가 될 것이다.



비슷한 얘기로, 요즘 페이스북 등 소셜네트워크 기업들이 자신들의 플랫폼 위에서 ‘가짜 뉴스’가 퍼진다는 것을 알면서도 최선을 다해 막고 있지는 않다는 의혹을 받고 있다. 어떻게 생각하나.

기업들은 종종 예상할 수 있는 부작용과 예상할 수 없는 부작용을 가진 제품을 출시하곤 한다. 예를 들어 장난감 회사가 내놓은 신제품을 아기가 조각을 내서 삼켜버리리라고는 예상하지 못할 수도 있다. 가짜 뉴스의 경우도 그렇다. 소셜미디어 회사들이 사용하는 알고리즘은 본질적으로 사용자들을 즐겁게 만들고 그들이 계속 서비스를 사용하게끔 유도하는 것이 목적이다. 그런데 그 알고리즘으로부터 사람들에게 잘못된 정보를 전달하고 정상적인 민주주의의 절차를 방해하는 부작용이 나왔다. 나는 소셜미디어 업체들이 이것을 의도했다고 생각하지는 않는다. 그럴 리야 있겠는가. 하지만 동시에 이것이 좋은 현상이라고 생각하지도 않는다.

현재 미국에서는 규제 측면에서, 혹은 산업 측면에서 이런 문제를 어떻게 막아야 하는지에 대한 논의가 굉장히 심각하게 진행 중이다. 테슬라와 마찬가지로 현행법상으로는 가짜 뉴스 유통에 대한 법적 책임을 소셜미디어 회사에 물을 수는 없다. 하지만 사회적 측면에서는 나는 그들에게도 책임이 있다고 생각한다. 내가 알기로는 그 회사들도 역시 미래에 이런 일이 또 일어나지 않게 하기 위한 노력을 열심히 하고 있다.



당신은 저서에서 “인공지능 시스템의 법적인 책임을 논할 때는 그것이 ‘지적 능력을 가진 대리인 (intelligent agent)인지, 아니면 단순한 도구(tool) 인지가 중요하다”고 말한 바 있다. 시스템이 단순한 도구일 경우 도구 자체에 책임을 물을 수는 없다는 말이었다. 지적인 대리인과 도구, 그 경계는 무엇인가?

아직 법적 구분은 없다. 하지만 미래에는 반드시 그런 구분이 지어져야 한다고 생각한다. 인간 대리인의 경우를 보면 알 수 있다. 당신이 누군가를 대리인으로 고용한다고 해 보자. 그 사람은 당신의 명령을 따라야 하는 법적인 책임을 갖는다. 동시에, 그는 당신의 명령이 합법적인지, 아닌지를 판단할 수 있는 능력이 있다. 예를 들어 내가 당신을 대리인으로 고용해서 누군가에게 총을 쏘라고 말한다면 당신은 그게 잘못된 행동이라는 걸 알 수 있고 그에 따른 법적 책임을 일부 지게 된다. 반면에 내가 직접 누군가에게 총을 겨누고 방아쇠를 당기는 상황이라면 총은 자신이 무엇을 향해 총알을 발사하고 있는지, 그것이 잘못된 행동인지, 아닌지 알지 못한다. 그것이 대리인과 도구의 차이다. 인공지능 시스템도 마찬가지다. 누군가의 명령을 받아 행동할 때 그 행동이 가져올 결과를 인지하느냐가 중요하다.

시중에 나와 있는 자동차 관련 기술 하나를 예로 들겠다. 운전자가 술에 취했는지 여부를 판단할 수 있는 시스템이 있다. 만일 누가 술에 취한 채로 운전을 시작했고, 자동차가 그것을 판단해서 중단할 수 있는 능력과 충분한 정보가 있었는데도 불구하고 그 상황을 그대로 놓아뒀다고 하자. 그렇다면 자동차 제조사에 그 법적 책임을 물을 수 있는 여지가 충분히 있다.

미래에는 로봇과 기계, 컴퓨터 프로그램에 관련해 이런 문제들이 점점 더 많아질 것이다. 인공지능 시스템이 자신의 행동의 결과를 예측해서 판단을 내릴 수 있다면 그 시스템은 도구가 아니라 대리인으로 간주해야 한다.



인간이 아닌 기계도 스스로의 행동에 일정 책임을 지는 ‘대리인’으로 간주해야 한다는 당신의 말은 상법에서의 ‘법인’의 설명과 비슷하다. 역사적으로 근대사회에서 ‘법인’이라는 제도가 생긴 과정을 보면 당신이 얘기한 것처럼 사업가의 법적 책임과 회사의 법적 책임을 분리해서 사업가들을 사업 실패로부터 보호해주려는 의도가 있었다. 사업가들을 위한 일종의 특권이자 혜택이다. 그런 제도를 사업가가 아닌 로봇 구매자들에게 적용해주는 것은 지나친 혜택을 주는 게 아닐까.

그렇다. 사람들이 ‘법인’을 만드는 이유는 스스로의 법적 책임과 비즈니스의 법적 책임을 분리하기 위해서다. 법인은 사람들이 좀 더 많은 리스크를 감수하고 사업을 벌일 수 있도록 독려하기 위해 만들어진 제도다. 그렇게 해주면 사회 전체에 더 많은 이득이 돌아오기 때문이다. 만일 스타트업을 만드는 젊은이들이 사업에 실패하면 감옥에 보낸다고 해보자. 실제로 200여 년 전에는 그랬다. 빚을 못 갚는 사람은 ‘채무자의 감옥’에 갔어야 했다. 아직도 법이 그런 식이라면 누가 스타트업을 만들어 사업을 하겠는가.



뉴욕시를 가 보면 택시 한 대 한 대가 단독 법인으로 등록돼 있는 경우가 많다. 택시의 운전사가 법인의 단독주주가 되고, 법인의 자산은 그 택시 한 대다. 그렇게 하는 이유는 택시가 사고를 내서 누군가를 다치게 하거나 큰 피해를 냈을 때 택시운전사에게까지 책임을 물리지 못하게 하려는 이유다. 택시 운전사 입장에서는 너무나 좋은 제도다. 만일 보험만으로 커버할 수 없는 사고가 났다고 가정해보자. 택시가 법인으로 설립돼 있지 않다면 운전사가 자신의 집이라도 팔아서 손해를 배상해주거나 개인 파산을 신청해야 할 것이다. 법인 설립은 그런 리스크에서 택시 운전사를 보호해준다. 뉴욕시는 왜 이런 제도를 만들었을까? 이 제도가 없었다면 뉴욕에서 택시운전을 하려는 사람이 지금보다 훨씬 적었을 것이다. 곧 시민들이 누릴 효용도 지금보다 적었을 것이란 얘기다.

인공지능 로봇을 법인으로 등록하게 할 것이냐의 여부도 마찬가지로 사회적 효용을 기준으로 놓고 결정해야 한다. 로봇을 구입하는 사람들은 당연히 법인을 설립해서 로봇을 그 법인 아래 두길 원할 것이다. 로봇에게 커피 심부름을 시켰는데 돌아오는 길에 누군가에게 뜨거운 커피를 쏟아버릴 위험이 있다면, 그 책임을 소유자가 모두 져야 한다면 로봇을 구매할 사람이 얼마나 있겠는가. 당신이 갖고 있는 로봇이 어떤 의도치 않은 문제를 일으킬 수 있거나 누군가를 다치게 할 수도 있다고 걱정이 된다면 법인을 하나 세워서 그 법인이 로봇을 자산으로 보유하도록 할 수 있다. 뉴욕 택시와 마찬가지다. 현재의 법적 체계로도 충분히 가능하다. 미래에도 이런 방식을 허용해줄 것인지는 사회적인 가치가 얼마나 발생하느냐를 기준으로 결정해야 할 것이다. 가까운 미래는 아니겠지만 40∼50년 정도 안에는 로봇이 너무 흔해져서 그에 대한 법적 실체(entity)를 따로 정의해야 하는 시대가 오지 않을까 싶다.



그런데 로봇을 법인으로 등록하거나 별도의 법적인 주체로 정의하려면 무엇보다도 먼저 로봇 하나(a robot)의 범위가 어디까지인지를 정의할 수 있어야 할 것 같다. 사람이나 자동차는 한 명, 한 대의 범위가 명확하다. 하지만 인공지능이나 로봇이라는 것이 꼭 자동차처럼 물리적 실체를 갖고 있는 것은 아니지 않은가. 영화 ‘터미네이터’에 나오는 스카이넷 시스템이나 현재 많은 사람들이 사용하고 있는 비트코인 저장 시스템처럼. 눈에 보이지 않는 디지털 세상에만 존재하는 인공지능의 경우는 어떻게 ‘한 개’라는 범위를 정의할 수 있을까.

나도 명확한 경계를 짓기는 어렵다고 생각한다. 인공지능 시스템은 택시 한 대, 택시 두 대처럼 나눠서 구분하기 어려운 경우가 많다. 결국 ‘케이스 바이 케이스’로 봐야 하지 않을까. 해당 시스템이 물리적인 공간에서, 혹은 사이버 스페이스에서 어떤 임무를 수행하고 어떤 프로세스를 갖고 있는지를 보고 그 개체의 범위를 판단해야 할 것이다.



로봇이 범죄(criminal offense)를 저질렀다고 해보자. 처벌은 어떻게 내려야 할까. 다시 법인제도와 비교하자면, 현행법상으로는 법인이 어떤 범죄에 연루됐을 경우 법인에 처벌이 내려지게 돼 있지만 한국의 현실에서는 주로 법인의 경영자나 관리자에게 책임을 묻고 법인 그 자체에 대한 처벌은 상징적인 벌금 수준에 그치는 경우가 대부분이다. 로봇도 마찬가지가 아닐까. 감정이 없는 로봇을 처벌하는 게 의미나 있을까.

한국은 어떤지 모르겠지만 미국에서는 사람이 아닌 법인을 형사적으로 강하게 처벌하는 경우가 드물지 않다. 한국이 그렇게 하지 않는다면 그것은 정치인들의 의지 문제라고 생각한다. 예를 들어 2010년 멕시코만에서 원유 시추 작업에 투입됐던 ‘딥워터 호라이즌’호가 폭발하면서 원유가 대량으로 유출된 사고가 있었다. 영화로도 만들어진 사건이다. 당연히 형사소송이 걸렸는데, 그 처벌 대상은 시추플랫폼에서 작업한 사람들이 아니라 시추플랫폼을 소유한 회사였다. 그 회사는 아주 많은 벌금을 냈다.2 미국에서는 법인의 환경오염이나 회계부정 같은 일을 저지를 경우 굉장히 심각한 범죄로 여겨 강한 처벌을 받는다. 정부가 회사의 문을 닫게 할 수도 있다. 사람으로 치면 사형선고다.

인공지능 시스템 역시 사람처럼 형사처벌을 받을 수 있다.3 특히 재미있는 것은 처벌로서의 ‘갱생’이다. 사람이라면, 예를 들어 성범죄를 저지른 사람들에게 교육 프로그램 이수를 강제하거나 심리상담을 받게 하는 것이 바로 갱생 처벌이다. 머신러닝으로 만들어지는 인공지능 프로그램이라면 ‘리프로그래밍’이 여기 해당한다. 인공지능 프로그램이 어떤 잘못을 저지른다면 그 죄에 대한 처벌로서 데이터 재학습을 강제하는 것이다. 머신러닝은 일련의 데이터 세트를 가지고 학습을 하는 과정이니 새로운 데이터세트를 강제로 학습하게 하면 된다.



그 얘기를 들으니 다시 한번 페이스북의 타임라인 알고리즘 논란이 떠오른다. 만일 페이스북의 인공지능 알고리즘이 계속해서 가짜 뉴스를 퍼뜨린다면 재학습을 통해 알고리즘을 수정할 것을 법으로 강제할 수 있다는 얘기인가.

아직은 그런 법이 없지만 충분히 만들 수 있다. 예를 들어 소셜미디어 알고리즘이 가짜 뉴스를 찾아내서 걸러내고, 가짜 뉴스를 1000명 이상에게 퍼뜨릴 경우 불법으로 간주하는 법을 만든다고 해보자. 이 규정을 지키기 위해서는 회사 측에서 알고리즘을 끊임없이 재학습시켜야 할 것이고, 그렇지 않으면 아주 많은 벌금을 물리는 것이다. 충분히 가능한 일이다.

이와 비슷한 문제로, 이미 논란이 되고 있는 사례가 있다. 미국에서는 대부분의 금융사가 고객의 신용평가를 할 때 굉장히 고도화된 인공지능 알고리즘을 사용하고 있다. 특히 은행은 어떤 사람에게 신용카드를 발급할지, 말지, 또 발급한다면 사용한도를 얼마나 줄 것인지 결정하는 것이 굉장히 중요한 사업적 결정이다. 미국법에 따르면, 어떤 사람의 신용을 평가할 때 그 사람의 인종이나 성별을 고려해서는 안 된다. 하지만 알고리즘은 그런 규제를 전혀 모르기 때문에 저도 모르게 인종이나 성별에 따라 차별적인 결과를 만들어내곤 한다. 차별을 하는 특정한 로직이 있다기보다는 그냥 결과가 그렇게 나오는 것이지만 인간에게는 이것이 차별로 보일 수도 있다. 은행들은 이런 문제에 굉장히 민감하다. 자칫하면 금융규제 당국에 차별적 행위라고 고발당해서 막대한 벌금을 맞을 수 있기 때문이다. 최악의 경우 영업정지 처분까지 당할 수 있다.

딥러닝처럼 고도화된 인공지능 프로그램의 경우 ‘인종이나 성별은 고려하지 마’라고 명령해서 해결될 수 있는 문제가 아니다. 그런 명령 자체가 먹히지 않는다. 사람은 왜 기계가 그런 차별을 하는지 파악할 수조차 없다. 따라서 어떤 룰을 지키라고 명령할 수가 없다. 유일한 해법은 인종이나 성별을 차별하지 않는 데이터의 세트를 대규모로 구축해서 그것을 기계에게 학습시키는 것뿐이다. 이것이 ‘갱생’에 해당한다. 인공지능 기계 스스로가 학습을 통해 스스로 그런 룰을 만들어내도록 유도해야 한다. 물론 우리는 여전히 그런 룰을 만들었는지, 아닌지 알 수는 없다. 결과를 통해 확인할 수 있을 뿐이다.



규제 당국이 그런 사례를 적발하려면 그들 스스로도 컴퓨터공학과 인공지능에 대해 많은 지식을 쌓아야 할 것 같다.

물론 규제를 담당하는 공무원도 인공지능에 대한 지식은 있어야겠지만 은행들이 사용하는 개별 알고리즘을 속속들이 파악할 필요는 없다. 딥러닝 알고리즘이 어떤 논리와 절차에 의해 신용평가를 하는지는 만든 사람도 알 수가 없다. 그것은 겉으로 드러나지 않는다. 다만 규제 당국은 각 알고리즘이 수행한 신용평가의 결과를 놓고 통계적으로 분석해서 인종 차별, 성차별이 있었는지를 파악해서 그에 따라 법적인 조치를 내릴 것이다.



어떤 사람들은 로봇을 법적인 주체로 인정하는 것과 마찬가지로 로봇을 고용하는 기업에 ‘로봇세(robot tax)’를 물려야 한다고 주장한다. 인간 노동자가 노동의 대가로 받는 소득에 대해 소득세를 내는 만큼 로봇에게도 세금을 내게 해서 인간의 일자리를 너무 많이 빼앗아가지 못하게 하자는 것이다. 빌 게이츠가 올 초에 그런 주장을 한 바 있는데4 당신은 어떻게 생각하나.

나는 전혀 동의하지 않는다. 대부분의 사람들은 그걸 멍청한 아이디어라고 생각할 것이다. 그것은 농촌에서 탈곡기를 쓸 때마다 거기다가 세금을 매기자고 하는 것과 마찬가지다. 문제를 엉뚱한 방향에서 해결하려는 것이고 논리적이지도 않다. 그렇게 해서 인간의 일자리는 어느 정도 지킬 수 있을지 모르지만 기업의 생산성을 떨어뜨릴 것이다. 지금 우리가 해야 할 일은 자동화를 막는 게 아니다. 사람들이 일자리를 잃었을 때 그 사람들을 챙겨주는 것이다. 기업이 생산성을 향상시키려는 노력을 가로막는다면 경제가 어떻게 발전하겠는가.



저서에서 당신은 인공지능이 많은 일자리를 없앨 것이며, 사회 전체적인 생산성이 올라가고 분배가 잘될 경우 굳이 사람이 일을 해서 수입을 얻지 않아도 충분히 먹고살 수 있는 시대가 올 것이라고 썼다. 정말로 그런 시대가 올 경우 기업은 어떻게 직원들에게 동기부여를 할 수 있을까?

우선 책을 쓴 이후 지난 몇 년간 내 생각이 바뀌었다는 것부터 말해야겠다. 일자리가 대량으로 사라지는 일은 없을 것이라 생각한다. 다만 현재와는 다른 일자리들일 것이다. 역사를 보면 항상 그래왔다. 지금 우리가 직업으로 간주하는 것 중에는 200년 전의 시각으로 보면 전혀 직업으로 여겨지지 않았을 일들이 많다.

지금 당신과 내가 하고 있는 이 인터뷰만 봐도 그렇다. 우리에게는 이것이 직업적인 일이다. 그런데 만일 200년 전의 사람들을 데려다가 지금 우리가 대화를 나누는 모습을 지켜보게 한다면 그들은 이게 우리의 직업일 것이라고는 꿈에도 생각하지 못할 것이다. 그냥 자발적으로 즐거운 활동을 하고 있을 뿐이라고 생각할 것이며, 이런 활동을 통해 돈을 번다는 것을 굉장히 신기하게 생각할 것이다. 마찬가지로 현재와 미래 사이에도 비슷한 변화가 있을 것이다. 지금 우리가 취미나 즐거움으로 생각하는 일들, 예를 들어 자기 집 정원 안에 예쁜 꽃을 가꾸는 일이 미래에는 괜찮은 수입을 보장하는 직업이 될 수도 있다. 책을 쓸 당시, 나는 현재의 직업 중 50%가 미래에는 사라질 것이라는 데만 신경을 썼다. 그런데 알고 보니 지금으로부터 50년 전에도 현재 우리가 갖고 있는 직업의 50%는 존재하지 않았다. 이런 관점에서 보면 미래에 일자리가 대량으로 사라질 거라는 걱정은 별로 할 필요가 없어 보인다. 또 대부분의 사람들은 돈에 대한 필요성이 없어진다고 해도 여전히 일을 하며 보람을 찾으려 할 것이다.



왜 몇 년 만에 생각이 그렇게 확 바뀌었나?

학습했다. 경제학에 대해, 자동화의 역사에 대해, 직업의 속성 변화에 대해 많은 자료를 읽었다. 그 몇 년 동안 이런 주제에 대해 다른 사람들의 연구도 많이 축적이 됐고, 그 연구결과들을 접하면서 나도 예전에 몰랐던 것들을 알게 됐다.



조진서 기자 cjs@donga.com



DBR mini box

AI 시스템의 법적 책임 논란 사례


테슬라 자율주행 사망 사고

2016년 5월7일 미국 플로리다주에서 자율주행 중이던 테슬라 모델S가 교차로에서 대형 트레일러 옆을 들이박아 운전자가 즉사했다. 이 모델S는 맑은 날씨에서 흰색 트레일러 옆면을 분간하지 못했다. 사고 후 완벽하지 못한 자율주행 시스템을 판매한 회사 측의 책임이 얼마나 되는지에 대한 공방이 벌어졌다. 테슬라는 ‘자율주행은 운전을 도와주는 역할을 할 뿐이며 오류가 생길 수 있기 때문에 운전자에게 항상 핸들 위에 손을 올려놓고 있을 책임이 있음을 고지했다’며 사고에 대한 책임이 없다는 입장이었다.

미국 자동차교통국은 2017년 1월 일단 테슬라의 손을 들어주었다. 2017년 6월에는 500쪽 달하는 사고 보고서를 발표했다. 당시 모델S는 37분간 자율주행 모드로 달리는 동안 핸들 위에 손을 올려놓으라는 경고를 운전자에게 7회 보냈다. 하지만 운전자는 총 25초 동안만 핸들에 손을 올려놓았고, 최고속도 65마일 제한이 있는 도로임에도 불구하고 74마일로 주행하도록 크루즈컨트롤 시스템을 설정해뒀다. 특히 AP통신 보도에 따르면 그는 휴대용 DVD플레이어로 ‘해리포터’ 영화를 보고 있었다. 트럭 운전사는 사고 발생 후에도 완파된 차 안에서 영화가 계속 플레이되고 있었다고 말했다.

사망 사고에 대한 책임은 벗었지만 자율주행 사고의 책임 소재 논란이 끝난 것은 아니다. 테슬라는 홈페이지에서 ‘인간의 행동이 필요 없는(no action required by the person in the driver's seat)’ 자율주행 시스템을 소개하며 ‘평균적인 인간이 운전하는 차보다 최소한 두 배 안전하다’고 말하고 있다. 동시에 이 시스템은 소유자가 있는 지역마다 규제당국의 허가를 받아야 한다고 명시해 사고에 대한 법적 책임까지 지지는 않겠다는 뜻을 분명히 밝히고 있다.



페이스북 ‘가짜 뉴스’ 알고리즘 논란

2016년 영국의 브렉시트 투표와 미국의 대통령 선거를 전후해서 소셜미디어상의 ‘가짜 뉴스(fake news)’와 ‘증오 발언(hate speach)’에 대한 사회적 논란이 벌어졌다. 세계 최대 소셜미디어 플랫폼인 페이스북은 자체적인 자동 알고리즘을 통해서 각 사용자가 보는 첫 화면(타임라인)의 내용을 편집한다. 화면을 보는 사람은 화면에 보이는 내용이 어떤 원리나 알고리즘으로 편집된 것인지 알 수 없으므로 기본적으로 중립적이거나 객관적일 것으로 유추하는 경향이 있다. 하지만 실제로는 본인과 성향이 비슷한 사람의 글, 본인이 평소 좋아하는 성향의 콘텐츠가 더 많이 노출된다. 즉 공화당 지지자에겐 공화당을 지지하는 내용의 콘텐츠가, 민주당 지지자에겐 민주당을 지지하는 내용의 콘텐츠가 자동으로 더 많이 보이는 경향이 있다는 것이다. 특히 그 내용이 거짓이거나, 혹은 타인에 대한 혐오를 조장하는 내용일수록 페이스북 타임라인 알고리즘이나 트위터의 ‘트렌딩’ 알고리즘 때문에 빠르게 전파됐고 이런 현상이 미국과 영국 투표에 영향을 주었다고 보는 사람들이 많아졌다.

이런 상황에서 2017년 3월 독일 정부는 페이스북과 같은 소셜미디어 업체들이 온라인상의 혐오 발언과 가짜 뉴스를 신속하게 삭제하지 않을 경우 해당 소셜미디어를 운영하는 회사에 최대 5000만 유로(약 600억 원)의 벌금을 물리겠다는 법안(Network Enforcement Act, Netzwerkdurchsetzungsgezetz)을 발표했다.

독일 정부는 페이스북 등 소셜미디어 기업들이 ‘표현의 자유’를 내세워 일부러 상황을 방치하고 있다고 의심한다. 독일 법무장관 하이코 마스는 <워싱턴포스트>와의 인터뷰에서 사용자 신고가 들어온 혐오 발언 중 24시간 안에 삭제되는 비율은 페이스북의 경우 39%, 트위터는 고작 1%라고 비난했다. 이 법안은 9월 이전에 통과될 것으로 보인다고 이 신문은 전망했다.

페이스북은 공식적으로 반발했다. “무거운 벌금 때문에 회사 입장에서는 불법인지, 아닌지 확실하지 않은 콘텐츠도 삭제할 수밖에 없을 것”이라면서 “이는 공기관이 담당해야 하는 법적 판단의 의무를 사기업에 떠넘기는 것”이라고 발표했다.
동아비즈니스리뷰 331호 Data Privacy in Marketing 2021년 10월 Issue 2 목차보기