SR3. 비즈니스 의사결정 시 AI 활용법

AI를 유용한 동료로 활용하려면
인간과 기계가 서로 더 잘하는 문제 나눠야

325호 (2021년 07월 Issue 2)

Article at a Glance

AI가 비즈니스 의사결정에 널리 활용되고 있지만 경영진이 과거의 의사결정 방식에 사로잡혀 있으면 오용될 가능성이 크다. 경영진이 AI와 협업하는 가장 좋은 방식은 경영진과 AI가 각각 더 잘 풀 수 있는 문제를 구분하는 것이다. AI는 데이터의 집중이 필요한 예측 문제, 인간은 창의적인 사고 실험에 우월하다. 경영진은 AI가 가져올 의도치 않은 결과도 관리해야 한다. 특히 ‘강화 학습’ 에이전트는 SNS에서 의도치 않게 사회를 분열시키는 위험한 결과를 낳았다. RL 에이전트가 사람 행동에 미치는 영향을 사용자 인터뷰 등을 통해 파악하고 정책, 필요하다면 보상까지 적극적으로 수정해 나가야 한다.



편집자주
본 아티클은 필자가 2021년 HBR(하버드비즈니스리뷰) 온라인 판에 기고한 아티클 “When Should You Use AI to Solve Problems?”과 “5 Rules to Manage AI’s Unintended Consequences”를 번역해 편집했습니다.

많은 CEO가 직관적인 의사결정을 자랑으로 여긴다. 이들은 로봇처럼 리더십 공식을 따라 해서는 지금의 자리에 오를 수 없다고 여긴다. 물론 리더의 직관과 본능은 중요한 역할을 한다. 무분별하게 사용되지 않는다는 전제하에서 말이다. 하지만 인공지능(AI)이 출현함에 따라 경영 의사결정에서 우리가 오랫동안 높이 평가해 오던 특성들에 숨어 있던 결점이 드러나고 있다. 알고리즘은 과거 선견지명이라고 얘기했던 행동이 단지 운이었고, 이제껏 거의 신성시해온 의사결정 원칙들은 증명할 길이 없으며, 흔들림 없는 신념은 근시안과 마찬가지임을 밝혀버렸다. 멀리 볼 것도 없이 인간이 적극적으로 관리하는 투자 행위의 실적에서 이런 유서 깊은 인간의 의사결정 방식의 단점이 잘 나타난다. 내로라하는 투자가들이 관리한다는 펀드는 십중팔구 장기 수익률에서 인덱스펀드를 밑돌며1 AI의 알고리즘 거래는 사람이 하는 거래보다 우수한 실적을 내는 것이 일반적이다.

그렇다고 해서 당장 AI가 직관적인 의사결정을 대체하지는 않을 것이다. 하지만 경영진은 자기만의 고유한 의사결정 방식을 거두고 AI의 능력을 전면적으로 활용할 필요가 있다. 불같은 확신을 데이터로 다스리고 자신의 신념을 실험대에 올려서 적절한 문제를 공략하도록 AI의 방향을 설정해야 한다. 포트폴리오 매니저들은 이제 최고의 주식 대신 최고의 알고리즘을 고르는 방법을 배우고 있다. 경영진도 견고한 자아를 깨야 할 시간이 왔다. 기술에 대체되기 싫으면 기술을 활용하는 법을 알아야 한다.

043


인과관계의 사다리

AI가 특정 유형의 문제해결에 인간보다 월등히 앞서는 이유는 무엇일까? 경영진은 여기서 무엇을 배울 수 있을까? 최근 몇 년 동안 AI는 포커, 체스, 제퍼디(Jeopardy!)2 , 바둑에서 세계 챔피언을 모두 완파했다. 이렇게 AI가 승리한 결과에 놀라는 사람들은 이들 게임에서 승리를 하기 위해 얼마나 많은 기계적 암기와 수리 논리가 필요한지를 과소평가한다. 다른 한편 포커와 체스의 경우에는 여전히 인간 행동에 대한 통찰력이 맡는 역할을 과대평가하기도 한다. 카네기멜론대의 컴퓨터 과학자 투오마스 샌드홀름(Tuomas Sandholm)이 개발한 AI 알고리즘 리브라투스(Libratus)는 세계 최고의 포커 선수들을 격파했다. 그는 이 알고리즘이 일반적으로 확률론적인 예측을 할 뿐, AI에 반하는 대결 상대의 속임수(feint)나 텔(Tell) 같은 행동을 학습하는 것이 승리에 꼭 필요하지는 않다고 말한다.3 리브라투스는 게임이론과 머신러닝을 적용해 그저 확률 싸움으로 연전연승을 거뒀다. 포커 챔피언십에서도 확률 법칙의 이해가 상대편 행동을 읽는 것보다 훨씬 중요하다는 얘기다.

AI를 이용해 의사결정을 잘하려면 AI가 어떤 종류의 문제에 탁월한지, 또 AI보다 경영자의 직관이 더 잘 해결할 수 있는 문제가 무엇인지 구분할 줄 아는 것이 중요하다. 이를 위해 저명한 컴퓨터 과학자 유디 펄(Judea Pearl)의 가이드를 참고할 필요가 있다. 펄이 고안한 인과관계의 사다리(Ladder of Causation) 개념은 추론적 사고(inferential thinking)의 3가지 수준을 기술하며 인간이 어떻게 한발 물러서 AI를 활용해야 할지에 대한 로드맵을 제공한다. 그는 저서4 에서 “어떤 기계도 혼자서 가공되지 않은 데이터로부터 설명을 도출해 낼 수 없다. 기계는 자극이 필요하다”고 말했다. 그가 제시한 사다리의 첫 디딤대는 연관성(Association)에 의한 추론(A라면 B)이다. 그다음 디딤대는 개입(Intervention)에 의한 추론이다(입력값 X를 바꾸면 결과 Y에는 무슨 일이 발생하는가?). 마지막 단계는 조건법적 서술(Counterfactuals)에 의한 추론으로, 사실과 상충되는 것처럼 보이는 것이 우리를 비직관적 사고의 새로운 인사이트로 이끈다. 다음에서 이 3가지 추론의 디딤대에서 AI가 할 수 있는 역할을 하나씩 살펴보고자 한다.

1. 연관성(Association)

우리는 흔히 가격과 이윤이라는 두 변수 간의 연관 관계를 조사한다. AI는 방대한 양의 데이터를 살펴 변수 사이에 숨은 연관 관계를 드러내는 데 탁월한 성능을 발휘한다. SNS가 연관성 알고리즘을 사용해 어떤 게시물이 제일 많은 조회 수를 얻을 것인지 사용자의 이전 행동에 근거해 예측하는 것이 대표적인 예다.

사람은 이런 방면에서 그렇게 훌륭하지 않다. 느릴 뿐만 아니라 편견에 휘둘리기 쉽다. 그래서 직관적 연관에만 근거해 결정을 내리는 경영진은 인과에 대한 잘못된 결론에 도달할 수 있다. 사실이 아닌데도 특정 행위를 하면 원하는 결과에 도달한다고 잘못 추론하는 것이다. 필자가 직접 경험한 사례가 있다. 액센츄어의 사내 전략 그룹을 이끌 당시 차별화 서비스를 개발하는 데 많은 시간과 자본을 투자했다. 고객이 이런 서비스에 돈을 기꺼이 더 지불하는 것처럼 보였고 여기에 개발하면 더 큰 이윤이 생길 거라 여겼기 때문이다. 하지만 나중에 차별화 서비스를 받은 고객의 수익성을 그렇지 않은 고객들과 비교했을 때 결과는 예상과 달랐다. 실제로는 서비스의 차별화가 아니라 고객과의 개인적 관계가 이윤 향상으로 이어졌다. 우리는 차별화 서비스와 이윤 간의 겉보기 관계를 증명해보지도 않고 수년간 추종했던 것이다.

2. 개입(Intervention)

개입은 어떤 행위를 실행에 옮기고 그것이 결과에 미치는 영향을 관찰하는 것이다. 즉 실험 변수를 조정하는 것이다. 이는 상품 가격 조정이 판매량이나 수익성에 미치는 영향을 측정하는 식으로 비즈니스 의사결정에서 항상 이뤄지는 일이다. 하지만 예측 결과를 너무 자신했을 때 문제가 생길 수 있다. 개입은 직관에 반하는 방식을 포함해 다양한 입력값을 테스트하고 그로 인한 결과의 변화를 관찰할 때 효과적인지 알 수 있다. 바로 이 점에서는 사람이 AI보다 나을 수 있다.

몇 년 전 필자가 운영하는 스타트업은 유망 상품 2가지인 기업용 세일즈 AI와 핀테크 AI를 제작했다. 우리는 세일즈 AI와 핀테크 AI 각각에 적합한 시장을 평가하고 그에 기반한 예측 시나리오를 실행했다. 모델링에 따르면 세일즈 AI가 해당 시장이 이미 포화 상태이긴 하지만 가장 우수한 실적을 보여주는 것으로 나왔다. 하지만 우리는 핀테크 제품에 대한 시장은 아직 경쟁이 덜해서 핀테크 솔루션이 의외로 세일즈 제품보다 더 나은 결과를 안겨줄 수도 있을 것 같다고 직감했다. 그래서 우리는 이 역시 검증하기 위해 두 제품을 함께 홍보하기로 했다. 90일 후 핀테크 제품은 판매량에서 세일즈 솔루션을 한참 앞질렀고, 시장이 작았음에도 불구하고 빠르게 높은 시장점유율을 확보하게 됐다. AI가 아닌 경영진의 직감이 맞아떨어진 것이다.

3. 조건법적 서술(Counterfactual)

조건법적 서술의 개념은 1946년 개봉한 영화 ‘멋진 인생(It’s a Wonderful Life)’에 잘 그려져 있다. 영화에서 천사 클라렌스가 자신의 인생을 비관하는 제임스 스튜어트에게 그가 없는 세상이 얼마나 암울했을지를 보여주는 장면이 있다. 실험 또는 사업 행위에서 특정 변수가 다르고 나머지는 모두 같을 때 어떤 일이 발생할 것인가를 창의적으로 상상해 보는 행위가 바로 조건법적 서술에 의한 추론이다.

필자는 오래전 맥도날드의 최고운영책임자(COO)에게 기업의 연구개발(R&D) 자금 지원의 정당성 평가 작업을 도와달라는 요청을 받았다. “이런 작업을 어떻게 하시겠어요?”라는 그녀의 질문에 필자는 “기업이 연구개발을 하지 않고 프랜차이즈에 넘겨 버리면 어떤 일이 일어날지 생각해보죠”라고 답했다. 여기서의 조건법은 기업의 연구 개발이 존재하지 않는 현실을 상상하는 것이다. 최고운영책임자는 이런 상황에서 수익률이 곤두박질칠 것이라고 생각했을 것이다.

과거에 실행된 사업적 결정을 두고 조건법적 명제를 검증하는 방법은 타임머신을 활용하는 것 말고는 없을 것이다. 하지만 조건법적 서술에 따라 상상한 상황이 어떤 결과를 가져올지를 보여주는 증거는 찾을 수 있다. 앞선 맥도날드 사례에서 필자는 최근 출시된 제품들의 기원을 조사해 보자고 제안했다. 결과는 흥미로우면서도 놀라웠다. 빅맥이나 필레-오-피시와 같은 히트 상품의 아이디어는 의외로 현장에서 나왔다. 반면 최악의 결과를 보여준 디럭스 같은 제품은 회사의 연구개발을 통해 도출된 아이디어였다. 우리는 이런 조건법적 사고 실험을 통해 제품 혁신에서 기업의 연구개발이 맡는 상대적 역할을 파악할 수 있었다.

인간과 기계의 조화

인간과 기계가 앞서 설명한 3가지, 연관성, 개입, 조건법적 서술 추론을 하는 데 협력한 좋은 사례가 있다. 2009년 6월 에어프랑스 447편은 브라질 인근 대서양에서 승무원 포함 228명을 태운 채 폭풍 속에서 사라졌다.5 프랑스 정부는 2년 동안이나 기체를 수색했지만 큰 성과를 거두지 못했다. 네 번의 시도가 실패로 돌아가자 정부는 수학자로 구성된 팀을 동원했다. 이 팀은 AI를 이용, 베이지안(Bayesian) 통계학 기법을 적용해 새로운 정보를 획득했을 때 해저 특정 위치에 비행기가 위치할 확률 예측이 업데이트되도록 했다.

놀랍게도 팀은 일주일 만에 비행기를 찾아냈다. AI를 통해 처음 이뤄진 예측에서 가능성이 가장 높은 탐색 구역이라고 나온 지역은 정부가 이미 수색을 했던 곳이었다. 하지만 이때 사람이 개입해 정부가 생각하지 못했던 이전의 실패 사례에서 나온 새로운 정보를 고려하도록 했고 중요 수색 변수를 변경해 결과에 미치는 영향을 알아봤다. 핵심은 비행기의 비컨이 망가졌는지 여부였는데 그로 인해 정부의 수색 작업이 실제 추락 지점을 놓쳤을 수도 있기 때문이었다. 그 가정은 정확했다. 사고기의 잔해는 이전에 예측한 위치 근처에서 발견됐다.

AI는 강력한 의사결정 도구지만 기업가들과 경영진이 AI의 성능 자체에만 목을 매서는 안 된다. 사고방식을 바꿔야 한다. 의사결정을 아예 기계에 전부 넘겨주는 것은 올바른 처사가 아니다. 예측과 연관성 작업에는 AI가 압도적인 우위를 보이니 이러한 작업은 AI에 맡기되 의사결정자들은 인간만이 유달리 뛰어난 재능을 보이는 ‘개입’과 ‘조건법적 사고’를 통한 창의적인 사고방식에 집중할 필요가 있다. 사람과 기계의 협업이 점점 증가하면서 앞으로 인류는 새로운 무어의 법칙, 즉 인간과 기계가 융합된 의사결정 역량이 1년마다 두 배로 증가하는 현상을 목격하게 될 것이다. 하지만 그전에 우리의 ‘근거 없는’ 의사결정 방식부터 깨 나가야 할 것이다.

047


의도치 않은 AI 결과를 관리하는 5가지 원칙

페이스북은 지난 1월 미국에서 발생한 사상 초유의 의회의사당 난입 사건을 부추긴 책임으로 도널드 트럼프 전 대통령의 계정을 차단했다. 그가 폭력 선동에 반대하는 페이스북의 규정을 어겼기 때문이다.6 이번 사건은 페이스북 같은 SNS 플랫폼이 사람들의 불화를 조장하고 양극단을 나누는 무기가 될 위험을 알렸다. 프랭크 팰론(Frank Pallone) 하원 에너지상업위원회 위원장은 최근의 사건들과 관련해 소셜미디어들의 비즈니스 모델을 비난하며 다음과 같은 트윗을 날렸다. “페이스북에서 허위 정보가 퍼지는 데 도널드 트럼프는 아주 큰 역할을 했다. 그가 플랫폼에서 차단을 당하든 말든 페이스북 및 유사한 비즈니스 모델을 지닌 기타 소셜미디어 플랫폼들은 앞으로도 광고 수익 견인을 위해 사회 분열을 초래하는 콘텐츠를 부각시키는 방법을 찾을 것이다.” 페이스북 감독위원회는 페이스북의 비즈니스 모델을 겨냥해 “페이스북은 2021년 1월6일 미국에서 벌어진 폭력 사태라는 결말을 가져온 부정 선거론과 긴장 상태 악화의 잠재적 원인 제공자로서 종합적으로 자사 사업을 검토해볼 것”을 권고했다. 또 다음과 같이 덧붙였다. “이번 사례를 바탕으로 페이스북은 플랫폼 오남용을 초래한 디자인과 정책 선택에 대해 솔직하게 반성해야 한다.”

소셜미디어 기업은 자신들이 그저 커뮤니티를 구축하고 세상을 연결하는 일을 하며, 무료 서비스를 유지하려면 광고 수익이 필요하다고 강변한다. 하지만 세상에 공짜는 없다. 더 많은 조회 수는 더 많은 돈으로 이어진다. 따라서 이들 기업은 고객 참여 극대화를 위해 알고리즘을 최적화했다. 조회 수는 이런 알고리즘의 ‘보상 기능’이다. 알고리즘이 플랫폼으로 유입시키는 조회 수가 많을수록 좋다. 즉 어떤 게시물을 홍보했는데 조회 수가 폭발했다면 알고리즘은 이 전략을 더욱 강화해 더 많은 공유를 촉진하는 방법으로 게시물의 시점, 대상, 노출 방식을 선택한다. 이것이 바로 강화 학습(Reinforcement Learning, RL)이라고 불리는 과정이다. 강화 학습의 결과 강렬한 감정을 촉발하는 자극적인 게시물이 더 많은 조회 수를 얻게 되고 알고리즘이 계속 이런 게시물을 편애할수록 플랫폼 수익이 늘어난다.

소셜미디어 플랫폼이 선동의 무기가 된 현실은 RL 에이전트의 정책이 적절한 설계와 모니터링, 제약을 거치지 않을 때 일어날 수 있는 일의 극단적 사례다. 최근 RL 에이전트는 SNS뿐 아니라 금융 서비스, 헬스케어, 마케팅, 게임, 자동화 등 다양한 영역에서도 적용되고 있다. RL메커니즘이 의도되지 않은 결과로 어떻게 이어지는지를 이해하면 예측 가능한 실수를 피할 수 있다. RL이 오직 보상이라는 목표만을 추구하는 과정에서 달갑지도 않고 기대하지도 않은 인간 행동이 오히려 촉진될 위험이 있기 때문이다. AI는 이런 일에 신경쓰지 않지만 AI를 창조하고 운용하는 사람은 신경을 써야 한다.

강화 학습 에이전트

엄격하게 ‘만일/그렇다면(if/then)’ 동작으로 구성된 알고리즘과 달리 RL 에이전트는 주어진 상태(state) 동안 정의된 동작(action)을 수행해 지정된 보상을 찾도록 프로그램돼 있다. SNS의 경우 보상은 많으면 많을수록 좋은 조회 수다. 에이전트의 허가된 동작에는 누구를 타기팅할지와 얼마나 자주 홍보할지가 포함돼 있을 수 있다. 알고리즘의 상태는 특정 시점이다. 에이전트의 보상, 에이전트가 동작하는 상태 및 허가 동작 세트를 한데 묶어 ‘정책(policy)’이라고 부른다.

정책은 일종의 가드레일로 작용해 다양한 상황에서 RL 에이전트가 행동하는 방식을 폭넓게 정의한다. 정책이 설정한 경계 안에서 에이전트는 행동과 상태를 어떻게 조합할 때(state-action pair) 보상을 가장 효과적으로 극대화할 수 있는지 알기 위해 자유롭게 실험한다. 에이전트는 제일 좋은 결과를 내는 방식이 무엇인지 학습하고 덜 효과적인 것으로 드러난 접근 방식은 버리면서 최적의 전략을 찾아 나간다. 반복적인 시행착오 과정을 통해 에이전트는 보상 극대화를 향해 더욱 고도화된다. 이 과정이 낯설지 않게 들리는 이유는 우리 두뇌가 작동하는 방식을 모델로 삼았기 때문이다. 습관에서 중독에 이르는 인간의 행동 패턴은 두뇌가 특정한 상황, 예컨대 배가 고픈 상황에서 먹는 행위에 대한 보상으로 도파민 같은 신경전달물질을 분비하는 방식으로 강화된다.

RL 에이전트가 목표를 추구하는 방식을 이해하면 해로운 부작용을 방지하기 위해 이를 어떻게 수정해야 할지도 더욱 명확하게 알 수 있다. 인간-AI 시스템에서 인간의 행동 방식을 바꾸는 것은 어렵지만 정책과 보상 추구 과정에서 RL 에이전트의 행동을 변경하는 것은 간단하다.

5가지 리더십 원칙

필자가 속한 기업의 예를 들어 기업의 경영진이 RL 에이전트를 전략 실행할 때 고집해야 하는 다섯 가지 원칙을 제시한다.

1. RL 에이전트가 예상치 못한 방식으로 사람의 행동에 작용할 수 있음을 가정하라. 필자의 회사가 만든 에이전트는 회계상의 거래에 대해 품질 보증 속도를 높이려는 목표를 세웠다. 알고리즘은 이상 현상(anomaly, 잠재적 오류)을 고위험군으로 표시해 이들을 애널리스트들이 우선적으로 심사하도록 했다. 적용 결과 애널리스트가 심사해야 하는 이상 현상의 총개수는 극적으로 줄었고 우리가 바라던 대로 전체 심사 시간도 현격하게 줄었다. 그런데 알고리즘을 실행한 이후 우리는 애널리스트들이 더 오랜 시간을 투자해야 하는, 즉 극도로 복잡한 이상 현상을 심사하는 시간까지 빨라진 사실을 수상쩍게 생각했다.

2. 기댓값으로부터의 편차를 체계적으로 평가하라. RL 에이전트가 사람들의 행동에 어떤 영향을 미치는지를 체계적으로 측정하는 기업은 현재 거의 없다. 이를 위해서는 우선 에이전트 활동과 결부될 수 있는 행동 변화에 관한 데이터를 기업의 데이터 과학자에게 정기적으로 문의해야 한다. 또 기대한 결과에서 벗어나는 현상을 보게 되면 더 깊게 파고들어야 한다. 가장 위험한 이상 현상을 애널리스트들이 주마간산 격으로 훑기만 했다는 사실은 알고리즘이 예기치 않은 연쇄 반응을 부르고 있음을 알려줬다. 우리는 이를 통해 문제가 있다는 걸 알았다.

3. RL 에이전트가 내놓은 결과물에 대한 사용자, 고객 등의 반응을 인터뷰하라. 사실 RL 에이전트의 행동을 당하는 사람의 입장에서는 자신이 AI의 영향을 받고 있다는 사실조차 인지하지 못할 수 있다. 하지만 그렇다고 그들의 반응을 측정할 수 없는 것은 아니다. 우리는 애널리스트들이 너무 빠르게 심사하는 것이 우려스러웠기 때문에 이들과 면담하고 심사 대상인 알고리즘의 이상 현상에 그들이 어떤 반응을 보였는지에 대해 이야기를 나눴다. 알고 보니 애널리스트들은 에이전트가 이상 현상에 대해 전보다 더 많이 보증 업무를 수행해주는 것으로 잘못 생각하고 있었다. 다시 말해, 애널리스트들이 에이전트의 ‘전문성’에 과도하게 의지한 나머지 스스로 이상 현상을 점검해야 하는 본분에 주의를 덜 기울인 것이다. 이와 같은 AI에 대한 과도한 의존은 자율주행 차량에서 교통사고가 일어나는 이유이기도 하다. 사람들은 AI의 능력을 과대평가하고 너무 많이 통제권을 줘버린다.

4. 에이전트가 바람직하지 않은 행동을 권장한다면 정책을 수정하라. 에이전트의 보상 추구를 최적화하기 위해 대부분의 AI 팀은 보통 상태-행동 쌍을 수정하는 식으로 지속적으로 에이전트의 정책을 조정한다. 우리는 애널리스트가 각 이상 현상을 감지, 처리하느라 들이는 시간을 상태에 포함하도록 재정의하고 애널리스트가 너무 빨리 심사 결과를 내놓을 경우 이에 대해 이의를 제기하는 행동을 추가하는 등으로 다양하게 정책을 바꿨다. 또 선택된 이상 현상을 상급 관리자에게 전달했다. 이와 같은 정책 변경은 애널리스트들이 거짓 양성(false positive)으로 판단해 무시해 버리던 심각한 이상 현상의 숫자를 현격하게 줄였다.

5. 바람직하지 않은 행동이 계속된다면 보상 기능을 변경하라. 흔히 에이전트의 상태-행동 쌍을 조정해 바람직하지 않은 연쇄적 행동을 억제할 수 있기는 하지만 항상 그런 것은 아니다. 다른 개입 행위가 소용이 없다면 마지막 수단으로 에이전트의 목표를 바꿔야 한다. 보상 기능은 신성불가침처럼 여겨져서 이를 변경하는 대안은 일반적으로는 잘 고려되지 않는다. 하지만 에이전트가 목표를 추구할 때 오히려 해로운 행동이 장려되는데, 에이전트의 상태나 행동을 조정해도 문제가 해결되지 못하는 경우에는 시선을 보상 자체로 돌려야 한다.

AI 에이전트에 ‘조회 수 극대화’라는 목표를 부여하는 것은 필요한 일이면서도 동시에 인간의 심리적 약점을 이용한다는 점에서 위험하고 비윤리적인 일이다. 소셜 플랫폼의 경우 에이전트의 상태-행동 쌍을 조정해 이런 해로움을 줄이는 방안이 존재할 수 있다. 만일 그렇지 않다면 플랫폼에는 선택의 여지가 없다. 에이전트의 파괴적인 조회 수 추구 행위를 무슨 수를 써서라도 멈춰야 한다. 즉 추구 대상으로 프로그램돼 있는 보상 자체를 바꾸는 것이다. 이러한 작업을 위해 비즈니스 모델까지 변경해야 한다고 해도 말이다.

RL 에이전트를 비롯한 다양한 유형의 AI가 기업의 발전에 점점 더 많은 역할을 하고 있는 오늘날, 경영진은 AI가 초래할 결과를 분명히 이해해야 한다. 그리고 기업의 우선적 목표를 추구하는 과정에서 사회에 악영향을 미치지는 않는지 살펴보고, 이를 고치기 위한 행동을 실천해야 한다.


번역 |박준석

밥 서(Bob Suh) 온콥스(OnCorps) CEO
필자는 금융서비스업의 AI 기반 의사결정 가이드 시스템을 제공하는 온콥스(OnCorps)의 설립자이자 CEO이다. 온콥스는 예일대, 옥스퍼드대, 하버드대 등의 저명한 과학자들과 협업해 의사결정과 행동 알고리즘을 테스트한다. 앞서 액센츄어의 최고기술전략책임자(Chief Technology Strategist)를 지냈다.
동아비즈니스리뷰 329호 Fly to the Metaverse 2021년 09월 Issue 2 목차보기