Top
검색버튼 메뉴버튼

Data Science in Practice

“조직 의사결정에 AI를 들이셔야 합니다”

유재연 | 270호 (2019년 4월 Issue 1)
Article at a Glance
기본적인 통계분석부터 기계학습, 딥러닝에 이르기까지 비즈니스 영역에서 데이터 분석을 통해 더 나은 결과를 일구려는 노력은 계속되고 있다. 특히 인공지능(AI) 분석을 활용한 의사결정은 비즈니스 인텔리전스(BI) 영역과 함께 어우러지며 크게 주목받고 있다. 기존 방법들에 비해 정확도도 높고 효율도 좋다는 점이 장점으로 꼽히지만 블랙박스 같은 정보처리 과정 때문에 결과 값에 대한 이유를 알 수 없다는 점은 단점으로 지적된다. 이에 따라 ‘설명 가능한 AI(eXplainable AI)’, 일명 XAI에 대한 연구가 고등연구계획국(DARPA)을 비롯한 주요 기관 및 기업 등에서 최근 활발하게 이뤄지고 있다. 흐름상 XAI는 꽤 빠른 시일 내 실제 현장에서 활용될 것으로 보인다. 조직 차원에서는 인간과 AI가 협업을 할 수 있도록 철저한 대비가 필요하다.


편집자주
모두가 데이터 과학에 대해 말하고, 인공지능 활용에 대해 얘기하지만 정작 AI와 함께 일할 준비가 돼 있는 기업, 제대로 데이터 분석을 하고 AI를 학습해 비즈니스 경쟁력으로 만드는 기업은 흔치 않습니다. 영상 분석 등 최첨단 데이터 과학과 인공지능 분야를 연구하고 있는 유재연 연구원이 기업에서 실제로 활용되고 있고, 앞으로 활용될 데이터과학과 인공지능 활용 방법론을 소개합니다.



기업가인 당신에게 인공지능(AI)을 쓸 수 있는 기회가 생겼다고 가정하자. 당장 떠오르는 그림은 무엇인가? 업종에 따라 다르겠지만 기업들의 AI 활용은 크게 두 가지, 무인자동화와 분석 용도로 나뉜다. 예를 들어, 마카다미아 너트 통조림의 생산 라인 및 유통 과정을 전부 무인화할 수도 있을 것이고, 또는 이 상품에 대한 각종 데이터 분석에 AI를 도입할 수도 있을 것이다. 다만 아직까지는 ‘AI=무인화’ 같은 흐름이 좀 더 익숙한 모양새다. 특히 2016년 우버(Uber) 무인 자율 트럭의 ‘맥주 5만 캔 배송 성공’ 같은 다소 충격적인 장면들의 역할이 컸다. 1 이와 관련해 글로벌 시장조사업체 가트너(Gartner)의 분석이 흥미롭다. 가트너는 기업들이 많이 하는 실수 중 하나가 ‘AI 활용을 오직 자동화에만 집중하는 것’이라고 말한다. AI를 인간의 의사결정 과정에 반영할 줄 아는 것이 더 중요하다는 가트너의 조언이다.

그래서일까. 기존의 로봇 프로세스 자동화(Robotic Process Automation, RPA)와 AI를 결합하는 형태가 최근 꽤 주목받고 있다. 2 대표적인 사례로 미국의 스타트업 식스센스(6 Sense)가 있다. AI 기반 마케팅 분석 플랫폼을 개발한 업체로, 지난 2016년 기술 스타트업 전문 주간지 INC가 선정한 ‘판도를 뒤집을 AI 스타트업 15’ 중 하나로 꼽힌 바 있다. 3 식스센스는 고객 관련 데이터를 모아 분석하는데 이전 기계학습 플랫폼들에 비해 데이터 수집의 폭이 넓고 예측 정확도 또한 높은 것으로 전해진다. 주요 고객인 시스코(Cisco) 측은 식스센스 플랫폼을 사용한 덕에 빅데이터 사용과 관련한 대대적인 혁신이 일어났다고 평가했다. 단순히 마케팅 초기의 타깃 예측만 하고 끝나는 게 아니라 의사결정의 전 과정에서 빅데이터를 활용할 수 있었기 때문이다. 4



이처럼 조직에 도입하기만 하면 완벽한 분석으로 비즈니스 난제를 해결해줄 것처럼 보이는 AI 분석기술에도 한계가 있다. 나타난 결과에 대해 도무지 이유를 알 길이 없다는 것이다. 일명 딥러닝의 블랙박스(blackbox) 문제라고도 일컬어지는데, 쉽게 말해 왜 이런 결과가 나왔는지 AI가 친절하게 설명을 해주지 않는다는 것이다. 이는 미국 포브스(Forbes)가 꼽은 ‘기업이 딥러닝을 도입하기 힘든 이유’ 중 하나로도 언급된다. 5 근거가 없으면 받아들이는 인간 입장에서도 설득력이 떨어지는 법. 더구나 IT에 대한 이해도가 낮은 업종일 경우 그 장벽은 훨씬 심할 것이다. 비싼 돈 들여 AI 분석기를 들여놓고도 결국 고위 임원의 직관으로 결정하게 되는 상황만 반복될 것이다. 그리하여 실리콘밸리를 비롯한 지구상 각 지역의 AI 공학자들이 도전장을 내밀게 된 이슈가 있다. 바로 ‘설명 가능한 AI(eXplainable AI, XAI)’다.

AI 분석 도입의 선제 조건: XAI, 설명 가능한 AI
XAI에서 설명의 주체는 AI다. AI 스스로 “이 결과가 나온 이유는 다음과 같다”며 논거를 제시하는 식이다. AI의 기반인 딥러닝의 구조를 보면 입력한 데이터가 은닉층(hidden layer)이라고 하는 신경망(뉴런)을 거쳐 결과 값을 출력하도록 돼 있다. 이 은닉층을 설계할 때 함수 등 여러 수학식을 넣기는 하지만 도대체 어떤 이유로 예측값을 출력하는 것인지 알기는 쉽지 않다. 설령 이 부분을 AI가 수식으로 정리해 알려준다 해도 그것이 몇 줄로 요약될 문제도 아닐뿐더러 일반적인 인간 사용자는 도무지 인공지능‘께서’ 무슨 말씀을 하시는 건지 알아들을 수도 없을 것이다.



여기서 잠깐 재미있는 케이스 하나를 소개하겠다. 집주인의 얼굴을 인식해 문을 열어주는, 미국 홈 IoT 업체 네스트(NEST)의 AI 홈도어 시스템 사용자가 겪은 일화다. (그림 2) 어느 날 갑자기 현관문이 열리지 않는 상황에 처한 고객이 네스트 앱에 접속했다. 이 AI 프로그램이 문을 잠근 이유에 대해 설명하기를 “이 얼굴은 모르는 사람”이라고 알려왔다는 것이다.(고객의 티셔츠에 그려져 있는 배트맨을 인식해버린 것이다!) 많은 학자는 AI의 학습력에 대한 한계를 지적할 때 이 예시를 들곤 하는데 필자는 좀 다르게 생각해 봤다. 이 해프닝은 AI가 판단한 이유를 시각적으로 설명해준 대표적 사례로도 해석할 수 있다. 많은 XAI 개발자가 이렇게 직관적인 설명 형태를 모델로 ‘설명 가능한 AI’ 연구를 진행하고 있다.



IBM이 최근 출시한 AI 프로그램도 눈여겨볼 만한데 XAI의 초기 버전이라고 봐도 될 법해 보인다. 현재 병원에서 의사들을 열심히 보조하고 있는 인공지능 시스템 왓슨(Watson)의 업그레이드된 버전으로 ‘왓슨 오픈스케일(Watson OpenScale)’이라 불린다. 6 이 AI 분석 플랫폼에 대해 한 언론은 여기에 “(왓슨 대신) 셜록이라는 이름이 더 어울린다”고 언급할 정도로 7 그만큼 비교적 논리적으로 결과물에 대해 설명을 한다고 한다. (그림 3) 이와 관련, IBM은 AI 분석의 신뢰도를 높이기 위해 추천 이유를 설명하고 AI의 편향성을 감지할 수 있다고 밝혔다.

이 플랫폼의 기술 기반이 되는 연구 중 하나가 같은 해 IBM연구소에서 나온 휴먼-AI 협업 알고리즘 CHAI(Collaborative Human-AI)다. 연구진은 악성 점 중 하나인 흑색종 구분 사례를 활용했다. AI가 특정 이미지에 대해 무엇을 기준으로 흑색종 여부를 판단했는지, 말로 설명하기보다는 그와 비슷한 이미지들을 함께 출력해 보여주는 방법을 썼다. 이를 통해 사람으로 하여금 ‘이것과 비슷한 그림들이 흑색종이라 이 또한 흑색종으로 판단했구나’라고 이해하고 판단할 수 있도록 돕는다. 이제서야 AI가 인간의 이해를 돕는 진정한 협업 도구가 되는 것이다. 8 이렇게 딥러닝의 구조는 그대로 가져가면서 판단의 근거를 인간에게 시각적으로 설명하는 협업 형태가 XAI와 인간의 대표적인 상호작용 모습이 되지 않겠느냐는 흐름이 꽤 지배적이다.

AI 분석 모델 자체를 사람에게 고르도록 하는 딥러닝 분석 소프트웨어도 하나 짚고 넘어가겠다. 데이터로봇(DataRobot)이라는 미국의 스타트업이 개발한 프로그램인데 이 업체는 포브스가 선정한 ‘2018년 주목할 만한 머신러닝 스타트업’에도 선정됐다. 9 투자액만 1억2450만 달러, 우리 돈으로 1400억 원가량을 끌어모았다고 전해진다. 이 업체의 솔루션은 데이터 분석가들에게 약간의 좌절감을 줄 정도다. 서포트벡터머신(Support Vector Machine, SVM)부터 각종 딥러닝 분류기, 텐서플로(Tensorflow) 같은 프레임워크 활용에 이르기까지 웬만한 머신러닝·딥러닝 모델을 전부 옵션으로 끌어 놓고, 데이터를 입력하기만 하면 곧바로 모델별 결과 값을 출력해준다. 마치 MS 엑셀에서 셀을 드래그하면 평균값, 합계 같은 것이 자동으로 나오듯 말이다. 개발자를 시켜 어렵사리 이 모델, 저 모델 다 작성해가며 예측값을 비교하지 않아도 이 AI 데이터 분석 프로그램 한 번에 모든 예측모델 값을 비교해볼 수 있으니 모델에 대한 충분한 이해가 있고 해석이 가능하며 자금도 충분한 조직이라면 이런 솔루션 하나로 AI 분석이라는 것을 쉽게 시도해볼 수 있을 것이다. 다만 사람이 납득할 정도의 설명력은 아직 부족해 보여 사람이 직접 AI 모델을 선정하기 유용하다는 것 정도로만 의의를 둘 수 있을 것 같다. (그림 4)



개인적으로는 비즈니스 측면에서 AI가 설명력을 갖추려면 적어도 ‘태블로(Tableau)’ 정도의 정보시각화는 보여야 한다고 생각한다. 태블로는 2003년 미국 스탠퍼드대 팻 한라한(Pat Hanrahan) 교수가 개발한 인터랙티브 데이터 시각화툴인데 이미 국내에서도 많은 기업이 이 프로그램을 활용하는 것으로 알려져 있다. 엑셀 파일을 입력만 하면 자동으로 예쁜 그래프를 만들어준다. 그뿐만 아니라 최근에는 기본적인 클러스터링 작업이나 텍스트 분석 등도 진행 가능할 만큼 최신 기술이 상당수 추가됐다. 10 이 툴이 현재 AI 분석을 하고 있다고 하기에는 다소 무리가 있어 보이지만 만일 XAI의 설명력이 태블로급으로 올라온다면 조직의 AI 의사결정 도입은 훨씬 수월해질 것이다. (그림 5)



XAI is coming: 인간과 AI의 협업을 준비하라
XAI 시대, 중국 저장대(浙江大) 연구진의 용어를 빌리자면 ‘AI 2.0 시대’가 열리고 있는 것인가? 11 여기 뛰어든 인재와 자본이 아주 많아서 실제로 그 시점이 빠르게 올 것 같기도 하다. AI의 결정이 인간의 것보다 낫고, 심지어 인간이 납득할 수 있을 정도로 그 수준이 올라온다면 AI 의사결정의 도입은 피할 수 없는 일이 된다. 특히 그전까지 ‘AI가 경영 현장에서 활용되기 어려운 이유’로 여겨졌던 ‘결과에 대한 논리적 설명’이 시작되면 AI가 기업 경영의 주요 파트너가 될 수밖에 없다. 이사회의 한 자리를 AI가 차지할 수도 있을 것이다.

그렇다면 조직 입장에서는 어떤 준비가 필요할까? 여기에 대해서는 AI 분석가 사미르 드한라자니(Sameer Dhanrajani)의 제안을 눈여겨볼 만하다. 요약하면 다음과 같다. 첫째, 공학적 사고방식(engineering mindset)이 필요하다. AI는 기본적으로 사람이 많이 쓸수록 스스로 학습을 통해 더 강해진다. 따라서 비즈니스 차원에서 이를 더 적극적으로 활용할 수 있도록 조직 구성원들에게 공학적 사고를 심어줘야 한다는 것이다. ‘내가 적절하게 많이 쓰면, 우리 회사의 AI도 더 나은 결정을 하도록 학습이 될 거야!’라고 생각할 수 있게끔 말이다. 이러한 AI 학습은 다시 XAI의 발전으로 이어질 것이다. 내부 직원에게 AI의 의사결정을 더욱 쉽게 납득할 수 있고, 고객에게는 상품과 서비스 추천이든, 각종 상담이든 AI가 자신의 판단에 대해 논리적으로 그 이유를 설명한다면 고객들의 반응 역시 지금과는 달라질 것이다. 내부 직원들의 데이터과학에 대한 관심과 공학적 사고방식을 통해 전 직원이 ‘AI 성능 향상’에 의식적 혹은 무의식적으로 노력하고 기여한다면 조직 내 AI 활용은 생각보다 빨리 가능해지고 차별화된 경쟁우위도 만들어낼 수 있을 것이다.

둘째, AI 교육 환경 조성이 필수적이다. 이건 앞서 제시한 첫 번째 제언과 연결되는 얘기다. 의식적, 무의식적으로 AI의 학습에 도움을 주는 문화와 공학적 사고방식을 조직에 퍼뜨리기 위해서는 AI의 전반적인 작동원리와 학습방식에 대해 알고 있어야 한다는 뜻이다. AI는 인간의 모든 행위를 학습하는데 인간도 AI에 대해 공부를 좀 해야 함께 일할 수 있다. 기존 인력이 AI에 의해 대체되고 쫓겨나는 게 아니라 그들이 인공지능 전환기를 맞아 새로운 환경에서 AI와 함께 잘 일할 수 있도록 AI 학습 환경이 마련돼야 한다.

셋째, AI 애플리케이션에 대한 인간 중심적 디자인이 필요하다. 앞서 말했듯 AI는 인간이 자꾸 써 줘야 스스로 학습하고 스스로 큰다. 그러기 위해서는 인간들이 이 AI 시스템을 잘 쓸 수 있도록 프로그램 자체가 사용자 맞춤형으로 만들어져야 한다. 인지과학을 기반으로 하는 인간중심디자인(Human-centered design)이 고려돼야 한다는 뜻이다. 12 단순한 AI 도입이 아니라 경영 프로세스, 고객과의 접점 등에서 제대로 된 XAI를 활용하고 싶은 기업이라면 이러한 인간중심적 디자인에 더 투자할 필요가 있다.

가트너는 오는 2021년까지 기업의 70%가 종업원의 생산성을 향상하기 위해 AI 어시스트를 도입할 것이라고 전망했다. 13 XAI가 더 완벽하게 구현된다면 거의 모든 분야에서 마치 컴퓨터를 쓰듯 AI를 받아들여야 하는 시점이 올지도 모른다. 기계의 결정은 진화하고 있다. 그 기계의 결정을 잘 써먹을 단단한 준비가 필요하다.

필자소개 유재연 서울대 융합과학기술대학원 연구원 you.jae@snu.ac.kr
필자는 서울대 융합과학기술대학원에서 석사 학위를 받고 동 대학원에서 박사 과정에 재학 중이다. 인간과컴퓨터상호작용(HCI) 분야에서 데이터사이언스를 공부하고 있고 그중에서도 미디어 영상 데이터를 활용한 딥러닝 연구를 진행하고 있다. 진학 전까지 언론인으로 일했다.
관련기사