로그인|회원가입|고객센터
Top
검색버튼 메뉴버튼

All That Tech

AI의 가장 큰 효과는 ‘기회비용 절감’
인간이 만든 도구에 과도한 기대 금물

안성원 | 307호 (2020년 10월 Issue 2)
Article at a Glance

우리는 자율주행 자동차와 관련해 트롤리 딜레마를 종종 언급한다. 윤리적인 가치 판단이 요구되고 사람들조차 선택에 애를 먹는 이 난제를 AI에 답하도록 요구하는 이유는 무엇일까? 그것은 우리가 AI에 거는 기대감이 높기 때문이다. 특히 코로나19 대응에 AI가 적극적으로 활용되고 일부 의미 있는 성과가 나타나면서 이 기술에 대한 기대감은 더욱 커지고 있다. 그러나 실제 업무 최전선에 있는 개발자들은 수많은 AI 프로토타입이 세상의 기대에 한참 미치지 못한다는 것 또한 알고 있다. 지금은 인간이 설계한 자율주행차에 윤리적인 판단을 강요하는 우문(愚問)을 던질 것이 아니라 과도한 기대를 거두고 책임감 있는 설계와 냉철한 검증에 몰입할 때다.



105


자율주행차는 트롤리 딜레마를 풀 수 있을까?

친구와 자율주행에 관한 주제로 얘기를 나누다 트롤리 딜레마1 이슈가 나왔다. 자율주행 중 탑승자의 목숨이 위험한 상황에서 이를 피하려고 핸들을 돌리면 그 방향에 있던 보행자 다수가 차에 치일 수 있다고 하자. 자율주행 시스템은 어느 쪽을 택해야 할까? 자율주행 자동차는 트롤리 딜레마를 해결할 수 없다는 친구의 말에 나는 역으로 질문했다. “네가 그 상황이라면 어떻게 할래?” 그 친구는 한참 고민하는 듯하더니 “잘 모르겠어”라고 답변했다.

우리는 지금껏 자율주행차 주제를 다룰 때마다 약방의 감초처럼 트롤리 딜레마가 거론되는 것을 봐왔다. 이 주제는 왜 계속 등장하는 것이며, 과연 질문을 던지는 사람들은 같은 상황에 처했을 때 어떤 결정을 내릴 것인가? 각자의 가치관과 이유에 따라 어느 한쪽의 답을 선택하는 사람들도 있을 것이고, 아무 답도 선택하지 못하는 사람도 있을 것이다. 어느 쪽을 선택하든 논란의 여지는 있다.

그동안 트롤리 딜레마에 대한 많은 실험이 이뤄졌고, 대개 사람들은 이런 상황에서 공리주의적인 해석에 입각한 결정을 내리는 것으로 알려져 있다. 실험 상황에 따라 약간씩 차이는 있지만 다수를 위해 소수를 희생할 수 있다는 의견의 비율이 약 73∼89% 수준으로 집계된다. 좀 더 다양한 상황을 가정한 파생 문제에서 행위의 주체가 소수를 희생하는 것이 직접 의도한 결과인지, 아니면 의도하지 않은 부차적인 결과인지에 따라서도 결과가 달라진다. 이 경우 약 85%의 행위자가 직접 소수를 희생해야 하는 상황을 거부하고, 아무런 조치를 취하지 않은 채 방관하는 쪽을 택한다. 즉, 1명의 희생양을 만들어 5명을 구하는 적극적인 행위를 하지 않고 방관한다는 것이다. 행위를 주관하지 않음으로 책임에서 보다 자유로워지기를 원하는 심리로 풀이된다.

사람이 아닌 AI가 관여하는 자율주행차에 대해서도 이러한 극단적인 상황을 가정하고 윤리적 책임 소재를 따지는 논쟁은 아직도 진행 중이다. 자율주행차가 주행 중 불가피하게 선택을 해야 한다면 운전자와 보행자, 또는 보행자들 간에 누굴 우선으로 살려야 하는가의 문제다. 실제로 자율주행차의 트롤리 딜레마 문제를 전 세계 230만 명 이상을 대상으로 조사한 MIT의 연구 결과가 지난 2018년 네이처(Nature)지에 소개되기도 했다.2

대체 왜 우리는 사람도 선택하기 어려워하는 상황을 기계에 주고 테스트하고 싶어 하는 걸까? 따지고 보면 이러한 질문을 한다는 것 자체가 억지스러운 면이 있다. 사람도 답을 내리지 못하는 윤리적 가치 판단의 문제를 기계라고 잘할 리 없기 때문이다.

질문하는 이유는 AI에 대한 기대감 때문

어릴 적 한번쯤은 ‘사자와 호랑이가 싸우면 누가 이기나?’라는 식의 호기심을 가진다. 단순 비교우위를 확인하고 싶어 하는 마음이다. 이 질문의 답은 ‘상황에 따라 다르다’다. 두 맹수 중에 더 유리한 조건과 환경을 가진 쪽이 승리한다. 누군가는 좀 더 선호하는 맹수를 응원하며, 자신이 좋아하는 쪽이 이길 것이라고 우격다짐을 하기도 한다.

이처럼 인간의 내면에는 많은 것의 비교우위를 확인하고 싶어 하는 욕구가 있다. 괴수들이 서로 싸우거나, 강력한 로봇들이 경쟁하거나, 초능력 영웅과 악당이 겨루는 내용이 공상과학 영화의 주제로 자주 활용되는 것도 이 때문이다. 이런 원초적인 호기심은 인공지능(AI)이라고 하는, 인간의 지적 능력을 흉내 내는 시스템을 대상으로도 예외 없이 발동한다.

사람들은 AI에 대한 기대감을 갖고 있다. 좀 더 광범위하게는 컴퓨터와 소프트웨어(SW)에 대한 기대감이다. 컴퓨터는 인간보다 더 완벽하게 계산해야 한다는 기대감 말이다. 역사적으로 컴퓨터는 인간의 다양한 지적 능력과 계산 능력을 보조하거나 대신해주는 도구로 발전해 왔다. 또 컴퓨터의 매우 빠른 계산, 망각이 없는 방대한 저장 능력은 인간을 능가하는 효율과 편의를 제공해 왔다. 제대로 동작하는 시스템이라면 적어도 인간보다 오류를 범할 확률이 낮은 게 사실이다.

의료 분야를 예를 들면, 세부 분야별로 AI를 활용한 질병 진단의 정확도가 95∼100%에 육박하는 시스템도 등장하고 있다. 한때 주목받았던 IBM의 왓슨(Watson)도 인간 의사보다 높은 진단 정확도를 보이고, 임상자료를 찾는 등 기존에 의사가 하던 시간 소모적인 업무를 대체함으로써 각광받은 바 있다.3

대체로 기계에 의한 작업은 인간보다 정밀하고 정확하다. 또 대부분의 경우 항상 일정한 성과를 낸다. 인간은 망각의 동물이자 오류가 많은 편인 반면 기계는 학습한 내용과 데이터에 근거해서만 판단을 내린다. 더 뛰어난 데이터 확보 및 저장 능력을 토대로, 사람이 뇌 속에서 일어나는 작용보다 수백, 수천 배 이상의 규모와 속도로 계산할 수 있다. 이것은 ‘기계가 원래 뛰어나다’는 의미가 아니라 ‘결국은 인간이 스스로의 편의를 위해서 기계를 그렇게 되도록 설계하고 발전시켜 왔다’는 의미다.

같은 맥락에서 자율주행차의 사고 소식은 보통 대서특필(大書特筆)된다. 하루에도 인간에 의한 자동차 사고가 국내에서만 수백 건에 달하고4 매년 전 세계적으로 135만 명 이상이 교통사고로 사망5 하는데도 불구하고 유독 자율주행에 대해 각박한 것이다. 그리고 더 엄격한 잣대를 들이댄다. 미국 도로교통안전청(NHTSA)의 연구 결과에 따르면 실제 교통사고 원인의 94% 이상은 졸음, 음주, 조작 미숙, 주의산만 등 인간에 의한 것(Human errors)이다.6 오히려 자율주행차가 대부분의 도로를 메우는 날에 세계 교통사고는 획기적인 수준으로 줄어들지 모른다.

우리가 자율주행차의 사고를 더 심각하게 받아들이는 까닭은 행위의 주체가 같은 인간이 아니라 기계라는 데 대한 거부감 때문일 것이다. 하지만 한편으로는 자율주행 및 AI가 주목받고 있는 기대주이기 때문인 것도 있다. 마치 축구경기에서 공을 몰고 가는 선수에게 카메라 포커싱이 맞춰지고 상대 선수의 태클이 들어가는 것과 같다. 국내에서도 지난 2016년 알파고로 인해 촉발된 AI에 대한 기대감이 높다. 다른 나라의 기업, 정부, 사회 역시 AI에 대한 투자 및 연구개발을 공격적으로 진행하고 있으며, 실제로 AI는 이러한 기대감에 부응하듯 여러 분야에서 일부 성과를 거두고 있다.

106


코로나19 대응 수단으로 주목받는 AI

최근 AI는 코로나19(신종코로나바이러스감염증, COVID-19)에 대응하는 수단으로서 가시적 성과를 보이고 있다. 성과를 나타낸 영역은 크게 세 가지, 코로나 진단, 치료제 발견, 확산 추적이다. 진단 영역에서는 코로나19 감염자의 정보를 학습한 AI가 의심 증세가 있는 환자들을 상대로 빠르고 정확하게 바이러스 감염 여부 및 합병증 유무를 판별했다. 치료제 발견 영역에서는 바이러스의 유전체와 분자구조를 학습하고 바이러스의 돌연변이 패턴을 찾아냈다. 이를 기반으로 치료 효과가 있는 새로운 화합물을 발견하고, 치료제와 백신 후보 물질의 임상실험을 시뮬레이션하면서 기존 신약 개발 기간을 획기적으로 단축했다. 마지막으로, 바이러스 확산을 추적하는 영역에서도 감시 체계에 AI를 적용했다. 바이러스의 이동 경로를 분석해 향후 지역별 확산을 예측하고 대응책을 마련할 수 있도록 정보를 제공했다.

AI를 통해 얻은 가장 큰 효과는 ‘기회비용 절감’이다. 국내 시약 및 의료용품 제조업체인 씨젠은 AI를 활용해 진단 키트 개발에 소요되는 시간을 기존 2∼3개월에서 3주로 줄였고, 이 진단 키트를 세계로 수출하고 있다. 루닛이나 뷰노 등 국내 의료 AI 기업들도 기존 진단 키트로 약 6시간 걸리던 진단을 수초 이내에 97∼99% 수준으로 진단하는 시스템을 개발했다. 이 판별을 위해 수백만 장의 흉부 엑스레이 사진이 활용됐다.

해외에서도 앨런 AI연구소는 치료를 위한 관련 연구 자료를 검색하고 분석•정리하는 데 학술 AI(Semantic scholar)를 활용해 연구자가 자료 검색에 들이는 시간을 줄였다. 또 제약업체인 실리코메디슨은 바이러스의 게놈 서열을 학습한 AI로 100여 종의 후보 약물을 발견했고, 길리어드사이언스도 에볼라바이러스 치료제인 ‘렘데시비르’의 약물 재창출 가능성을 확인했다. 영국의 베네볼런트AI(BenevolentAI)도 바이러스의 화학적 특성을 학습한 AI(Benevolent Platform)로 류머티즘 치료제 성분인 ‘바리시티닙’의 감염 차단 가능성을 발견했다.

이처럼 AI를 활용하면서 많은 제약회사는 진단 시스템이나 신약 개발 등에 드는 시간과 비용을 줄일 수 있었다. 수년 이상이 걸리는 신약 후보 물질의 추출과 안전성 시험 단계를 수개월 내로 단축한 것이다. 보통 1만 가지 이상의 화학 물질에 대한 조사와 조합, 임상에 최소 10년 이상의 시간과 1조 원 이상의 비용이 소모되고7 후보 물질 탐색 등 전 임상 단계까지도 대략 5∼7년이 소요된다는 점을 고려하면 최근의 성과들은 이 기간을 90% 이상 단축했다고 볼 수 있다.

AI는 코로나19의 확산 예측과 방역 관리 측면에서 중요한 정보를 제공했다. 캐나다 벤처기업 블루닷의 AI는 세계 항공 네트워크 정보를 바탕으로 신종코로나바이러스의 확산 위험을 빠르게 경고했고, AI 솔루션 업체인 그래픈은 바이러스의 진화 분석을 바탕으로 확산 경로 및 돌연변이 패턴을 시각적으로 제공했다. 8

과도한 기대는 금물

우리의 기대와 달리 컴퓨터가 내놓는 결과는 항상 완벽하지 않다. 언제나 오류를 범할 가능성을 내포하고 있다. 시스템 자체의 오작동에 의한 오류일 수도 있고, 시스템은 제대로 작동하나 내부 AI의 학습 과정이 잘못돼 원치 않는 결과가 나오는 오류일 수도 있다. 전자는 시스템의 ‘신뢰성’ 문제이고, 후자는 신뢰성 범주에 포함은 되지만 학습 데이터의 ‘무결성’과 더 관련이 깊다. AI는 인간이 어떤 목적을 가지고 어떻게 학습하느냐에 따라 다른 결과를 내놓는다. 이에 AI 학습 과정에서 인간이 얼마나 개입했는지, AI가 얼마나 편향적인 데이터를 학습했는지에 따라 해당 결과가 신뢰할 만하지 않을 수 있다.

이 때문에 일각에서는 코로나19에 대응하는 AI에 대한 회의적인 시각을 제기했다. 미국 브루킹스연구소는 최근 AI의 효과와 규모가 부풀려지고, 인간의 개입 수준은 폄하되는 등 AI 역할을 과대평가하는 추세를 지적한 바 있다.9

이처럼 성과의 과장은 문제를 진지하게 해결하는 데 전혀 도움이 되지 않는다는 시각이다. 브루킹스연구소는 이에 분야별 전문성, 학습 데이터의 양, 결과의 신뢰성, 실증, 인간의 개입, 분석의 보편성, 윤리 문제, 편향적 결과 등 8가지의 비판적인 시각을 계속해서 견지할 것을 주문했다. 이 밖에 UN, WHO 등 국제기구 산하의 AI 연구 기관들도 AI에 대한 과도한 해석과 부풀리기를 경계할 필요성을 역설했다.

분명 코로나19는 지금까지 개발돼 온 AI의 활용을 극대화할 만한 이벤트이며 방대한 데이터 및 아이디어를 실험할 수 있는 기회다. AI가 코로나19 극복의 솔루션이 될 수도 있다. 오늘날 가트너(Gartner) 신기술 하이프사이클을 보면 AI와 연관 기술이 최근 관심과 기대가 높아지는 구간에 몰려 있다는 것도 이 기술의 가능성을 보여준다. 그러나 기술의 한계와 현실성이 드러날수록 기대는 차츰 잦아들 것이다. 서두에서 예로 든 자율주행 기술(Autonomous Driving Level 4)도 현재 거품이 꺼지고 있는 단계에 있다.

108


실제 자율주행 기술을 개발 중인 기업들은 상용화 일정을 지속적으로 연기하고 있다. 구글 자율주행차 개발 책임을 맡았던 크리스 엄슨(Chris Urmson)은 상용화 시점이 예상보다 30년 이상 미뤄질 것으로 전망했으며, 자율주행차 개발을 주도한 구글, 애플, 테슬라, GM, 포드 등 IT 및 완성차 업계도 개발 목표 시점을 이미 여러 차례 수년 이상을 연기해 왔다.10

구글 웨이모(Waymo)도 천만 마일 이상의 자율 드라이빙 테스트를 마쳤지만 여전히 약점을 노출하고 있다. 가령, 사람은 운전법과 도로 교통의 규칙을 익힌 다음 약간의 노력만 기울이면 어느 지역에서든 운전이 가능하지만 AI는 아직까지 학습해 본 적 없는 도로교통 환경에서 오류를 범할 확률이 높다. 이런 자율주행의 문제는 코로나19에 대응하는 AI보다 훨씬 더 복잡하고 어렵다. 실시간으로 쏟아지는 데이터를 처리하고 수많은 돌발 상황과 변수를 고려해야 하기 때문이다. 이에 바이두나 화웨이 같은 중국 회사들은 완전 자율주행보다는 제한적 자율주행을 지원하기 위해 도시 전체를 재설계(V2X의 커넥티드카 방식)하는 쪽이 더 쉬울 수 있다11 고 여기기도 한다.

110


다시 서두에 꺼냈던 트롤리 딜레마의 얘기로 돌아와 보자. 자율주행의 영역에서 트롤리 딜레마 같은 윤리적인 논의는 중요한 가치 판단의 문제다. 이는 설계 단계부터 올바른 목적을 가진 AI를 만들고, 악용을 방지하자는 논의와는 다소 결이 다르다. AI를 윤리적인 딜레마 상황에 놓고 어떤 행동을 하는지를 시험해보자는 취지이기 때문이다. AI는 이 딜레마를 풀 만큼 똑똑하지 않다. 행여 많은 데이터를 학습해 앞으로 더 똑똑해지더라도 트롤리 딜레마는 인간에게도 그렇듯 AI에는 난제로 남을 것이다.

다만 트롤리 딜레마의 극단적 가정이 잘못됐을 뿐 굳이 답변을 하자면 의외로 해결책은 단순 명료하다. 설계 단계부터 철저하게 탑승자와 보행자의 양자택일이라는 상황을 만들지 않도록 대비하고, 불가피하게 주행을 멈출 수 없는 상황이 닥칠 경우 시스템을 정지하면 된다. 특히 브레이크 시스템만큼은 가속 시스템보다 더 엄격하게 관리해 자동차의 모든 동작이 멈춰버린다 해도 기계적으로라도 작동하도록 설계해야 한다. 나아가 혹시라도 그런 딜레마가 발생했을 때 차량 제조사는 탑승자 보호를 최우선으로 삼는 게 합리적일 수 있다. 자율주행차에는 공리주의적인 선택이 반드시 옳다고 볼 수는 없기 때문이다. 자동차는 어디까지나 제품이다. 주인을 희생해서라도 인류애를 실현하겠다는 제품을 살 사람이 얼마나 되겠는가. 이런 탑승자 우선의 원칙은 충분히 사회적 논의를 통해 합의할 수 있는 부분이다.

AI는 계속 발전할 기술임은 분명하다. 그러나 AI에 대한 과도한 기대는 종종 AI를 거대한 위협으로까지 생각하는 부작용을 낳는다. 많은 영역에서 인간의 능력을 뛰어넘을 것이란 기대감은 오히려 AI에 주도권을 빼앗길 것이란 두려움으로 변질되기도 한다. 공상과학 영화에서나 등장하는 강력한 AI(범용 인공지능, AGI)의 출현에 대한 우려가 있다. 그러나 일선에 있는 AI 전문가들은 사실상 이러한 두려움은 기우(杞憂)이며 AGI는 현세대에서 출현할 가능성이 매우 적다는 데 의견일치를 보인다.12

실제 AI를 최전선에서 개발하고 연구하는 이들은 제대로 동작하는 AI를 만드는 것이 얼마나 어려운지 잘 알고 있다. 수많은 프로토타입이 세상의 기대에 미치지 못한다는 것 또한 알고 있다. AI의 기술적, 응용적, 미래적 차원에서 세상의 기대에 거품이 끼어 있다는 뜻이다. AI는 인간의 편의성 증대를 위해서 만든 도구다. 그리고 AI의 설계자는 인간이며, 그 책임도 인간에게 있다. 인간이 만든 자율주행차에 윤리적인 판단을 강요하는 우문(愚問)을 던질 것이 아니라 책임감 있는 설계와 냉철한 검증에 몰입해야 할 때다.


안성원 소프트웨어정책연구소 선임연구원 swahn@spri.kr
안성원 선임연구원은 고려대 전산학과를 졸업하고 동 대학원에서 전산이학 석사와 컴퓨터공학 박사 학위를 취득했다. 한국발명진흥회 지식재산평가센터 전문위원을 거쳐 2016년부터 소프트웨어정책연구소에서 근무 중이다. 현재는 AI정책연구팀에서 AI, 클라우드 등에 대한 연구 활동을 수행하고 있다.
인기기사