로그인|회원가입|고객센터
Top
검색버튼 메뉴버튼

HR

AI 팀원의 성과는 어디까지 수용 가능할까

한지영 | 373호 (2023년 07월 Issue 2)
GettyImages-1142853794_[변환됨]


Based on “Trust in an AI versus a Human teammate: The effects of teammate identity and performance on Human-AI cooperation” (2023) by Zhang, G., Chong, L., Kotovsky, K., & Cagan, J. in Computers in Human Behavior, Vol. 139



무엇을, 왜 연구했나?

혁신 기술과 디지털 경제 분야 투자사인 ARK인베스트먼트에 의하면 인공지능(AI)의 성능이 발전하는 속도는 IT 산업의 발전 속도를 설명하는 ‘무어의 법칙(반도체 집적 회로의 성능이 2년마다 2배로 증가하는 것)’보다 5배에서 100배 정도 빠르다고 한다. 이를 증명하듯 이미 AI 기술은 의료, 교육, 에너지 등 인간 삶의 다양한 영역에 적용되고 있다. 이처럼 AI 기술의 비약적인 발전으로 인해 학계에서는 AI가 ‘인간을 위한 도구’의 역할을 넘어 팀 구성원으로서 역할을 충분히 수행할 수 있을지에 대한 논의가 뜨겁다. 최근 클램슨대의 나단 맥니즈 교수가 이끄는 연구팀은 ‘인간-AI하이브리드 팀’이 위기관리를 위한 자원 배분 문제를 해결하는 과정에서 ‘인간만으로 구성된 팀’보다 우수한 성과를 보여줬다는 연구 결과를 제시하며 ‘인간과 AI의 협업’ 관점에서 새로운 기회를 모색해 볼 수 있다는 관점을 시사한 바 있다.

하지만 선행 연구들은 인간이 AI를 신뢰하지 않아 ‘인간과 AI의 협업’이 지연되고 있다는 결과를 제시하고 있다. 일례로 2000명의 미국 소비자를 대상으로 한 연구에서는 다양한 분야의 AI 응용 프로그램에 대한 인간의 신뢰도가 전체적으로 낮은 수준(의료 진단 16%, 자율주행 13%, 인적 자원 관리 4%)으로 나타났으며 11개 산업 부문 1000명의 고위직 임원을 대상으로 한 연구에서도 AI에 대한 신뢰 수준이 낮아 미국 기업의 80%가 AI를 의사결정에 활용하지 못하고 있다는 결과가 나왔다. 이는 AI가 이미 기술적으로는 인간과 협업할 수 있는 능력을 갖췄지만 인간이 AI를 불신함으로 인해 인간과 AI의 협업에 어려움이 있음을 시사한다.

이런 관점에서 본 연구는 AI에 대한 인간의 신뢰와 인간-AI의 협업 성과에 관해 다루고 있다. 구체적으로, 인간과 AI가 협업하는 상황에서 인간이 AI를 인간으로 인식하고 작업한다면 신뢰와 협업 성과에 어떤 영향을 미치는지 파악하고자 다음의 3가지 연구 질문을 설정했다.

1) 인간이 AI 팀원의 신분을 AI가 아닌 인간으로 인식하고 협업한다면 AI 팀원에 대한 신뢰가 더 높아지는가? 이는 인간-AI 협업 성과에도 긍정적으로 영향을 미치는가?

2) 인간과 협업하는 AI 팀원의 성과가 AI 팀원에 대한 신뢰 및 인간-AI 협업의 성과에 영향을 미치는가?

3) 인간의 전문 지식 수준에 따라 AI 팀원의 신분과 AI 팀원의 성과가 AI 팀원에 대한 신뢰와 인간-AI 협업 성과에 다른 영향을 미치는가?

연구자들은 AI 팀원의 신분(AI 신분으로 인식/실제는 AI이나 인간으로 인식)과 AI 팀원의 성과(고성과AI/저성과AI)를 구분해 4가지 다른 환경으로 분류하고 환경마다 AI 팀원과 협업할 32명의 체스 게임 참가자를 모집했다. 또한 각 환경에서 참가자의 전문성 수준이 연구 결과에 어떤 영향을 미치는지 파악하고자 32명의 참가자를 전문성 수준에 따라 높은 수준 8명, 보통 수준 16명, 낮은 수준 8명으로 구성했다. 이들은 AI 팀원과 협업해 체스 퍼즐을 해결하는 과제를 수행했고, 모든 협업 과정은 온라인으로 진행했다. 또한 게임 전후에 AI 팀원에 대한 신뢰도를 측정하는 설문을 별도로 작성했다.

GettyImages-1452025984_[변환됨]


무엇을 발견했나?

연구자들은 전체 참가자 그룹에서 AI 팀원의 성과가 인간-AI 협업 성과에 긍정적 영향력을 미친다는 결과를 도출했다. 참가자들의 전문성 수준에 따라 그룹별로 살펴보면 체스에 대한 전문성이 높은 참가자 그룹의 경우에는 AI 팀원의 성과가 인간-AI 협업 성과에 영향을 미치지 않는 것으로 나타났으나 보통 수준의 체스 전문성을 가진 참가자 그룹과 낮은 수준의 체스 전문성을 가진 참가자 그룹의 경우에는 고성과의 AI 팀원과 협업할 때 더 높은 점수를 취득해 인간-AI 협업 성과에 긍정적 영향을 미치는 것으로 나타났다. 한편 참가자가 AI 팀원의 신분을 AI로 인식하고 협업을 하는 경우와 인간으로 인식하고 협업을 하는 경우에 따라 인간-AI 협업 성과가 달라지지 않는다는 사실을 발견했다. 즉, AI 팀원의 신분은 인간-AI 협업의 성과에 유의미한 영향을 미치지 않는 반면 AI 팀원의 성과는 인간-AI 협업의 성과에 유의미한 영향을 미친다는 결과를 도출한 것이다.

또한 전체 참가자 그룹에서 AI 팀원의 신분과 성능은 모두 AI 팀원에 대한 행동적 신뢰에 유의미한 영향을 미치는 것으로 나타났다. 이를 참가자들의 전문성 수준에 따라 그룹별로 살펴보면 체스 전문성이 높은 참가자 그룹과 보통 수준의 체스 전문성을 가진 참가자 그룹에서는 ‘AI 팀원의 성과’가 ‘행동적 신뢰’에 유의미하게 영향을 미친 반면 낮은 수준의 체스 전문성을 가진 참가자 그룹에서는 ‘AI 팀원의 신원’이 ‘행동적 신뢰’에 유의미한 영향을 미치는 것으로 나타났다. 게임이 끝난 후 참가자들이 AI 팀원에 대한 신뢰를 측정한 설문에서는 저성과인 AI 팀원의 신분을 인간으로 인식한 경우에 인지적으로 능숙하고 도움이 되며 신뢰한다고 응답했다. 그러나 고성과인 AI 팀원과 협업한 경우에는 AI 팀원을 인간으로 인식하든, 기계로 인식하든 신뢰에 영향을 미치지 않았다.

연구 결과가 어떤 교훈을 주나?

본 연구는 다음과 같은 시사점과 함의를 제시한다. 첫째, AI팀원의 신분은 참가자들의 행동적 신뢰에 유의미한 영향력을 미친다. 여기서 중요한 것은 모든 참가자 그룹 중 AI 팀원의 신분을 인간으로 인지하고 협업하는 참가자 그룹에서는 팀원의 결정에 대한 수용성이 낮아진다는 점이다. 일반적으로 사람들은 전문성과 경험을 갖춘 팀원과 협력하려는 성향이 있다는 것을 감안하면 AI가 인간보다 체스 전문성이 우수하다고 기대하는 것에서 그 원인을 찾을 수 있을 것이다.

둘째, 참가자들의 체스 역량 전문성 수준에 따라 살펴보면 전문성 수준이 높은 참가자들의 경우 AI 팀원의 ‘성과’만 행동적 신뢰에 유의미한 영향을 미치며 AI 팀원의 ‘신분’은 영향을 미치지 않는 것으로 나타났다. 반면 전문성 수준이 낮은 참가자들은 AI 팀원의 ‘신분’만 행동적 신뢰에 유의미한 영향을 미치는 것으로 나타났다. 즉, 전문성 수준이 높은 참가자들은 AI 팀원의 움직임을 판단하는 능력이 전문성 수준이 낮은 참가자들보다 우수하므로 AI 팀원의 실제 성과가 의사결정에 유의미한 영향력을 미치는 것이다.

또한 참가자들이 팀원의 체스 전문성을 추론하는 것은 본인의 체스 전문성 수준에 기반할 것이라는 점을 감안한다면 전문성이 낮은 참가자들의 경우 ‘인간으로 인식되지만 실제로는 AI인 팀원’에게 낮은 수준의 성과를 기대하는 경향이 있으며, ‘AI로 인식되는 AI 팀원’과 협업할 가능성이 높을 것으로 추론된다. 이런 관점에서 전문성 수준이 낮은 참가자들에게는 AI 팀원의 신분이 행동적 신뢰에 유의미하게 영향을 미치는 것을 설명할 수 있는 반면 전문성 수준이 높은 참가자들은 ‘인간으로 인식되는 (실제는) AI 팀원’과 ‘AI로 인식되는 AI 팀원’ 모두에게 높은 수준의 성과를 합리적으로 기대하므로 팀원의 신분은 의사결정에 유의미한 영향을 미치지 않는 것으로 해석할 수 있다.

셋째, 참가자들이 저성과의 AI 팀원과 협업해 체스 게임을 하는 도중 팀원의 신분(‘실제는 AI지만 인간으로 인식’ vs. ‘AI로 인식’)이 미치는 행동적 신뢰와 게임이 끝난 후 AI 팀원에 대한 신뢰를 측정하는 설문에서 응답한 결과가 상이하게 나타났다. 즉, 참가자들은 체스 게임을 하는 도중 저성과 팀원의 움직임을 적게 받아들여 행동적 신뢰를 보이지 않지만 연구 후 설문 조사에서는 ‘AI 팀원’을 인간이라고 인식하고 있는 경우 저성과 팀원에 관해 유능하고 도움이 된다고 응답하며 신뢰를 보였다. 이는 ‘인간으로 인식하고 있는 AI 팀원’을 불쾌하게 만들고 싶지 않은 참가자들의 사회적 규범이 반영된 것으로 해석할 수 있다.

본 연구 결과는 자율주행 자동차, 로봇 제어, 제조 및 의료 서비스와 같은 실제 응용 분야에서 인간과 AI의 협업에 관한 중요한 함의를 제공한다. 인간이 AI를 신뢰하지 않는다는 이유로 AI를 인간으로 인식시키려는 노력을 한다고 하더라도 인간-AI 협력의 성과가 향상되지 않는다는 것을 보여준다. 특히 해당 분야에 전문 지식이 부족한 인간이 AI 팀원을 인간으로 인식하고 협업할 경우에는 AI 팀원의 결정을 수용하지 않을 것이라는 점을 예고한다는 점에서 인간과 AI의 협업 구축에 시사하는 바가 크다.
  • 한지영 | BHC 그룹 CMO, 기술경영학 박사

    필자는 서울대 소비자 아동학과를 졸업하고, 고려대 기술경영전문대학원에서 기술경영학 박사학위를 받았다. 다양한 규모의 국내외 기업과 조직에서 15년 이상 C-Level 임원(CMO)으로서 일해 왔으며 현재 BHC group에서 마케팅과 R&D 업무를 총괄하는 CMO로 근무하고 있다. 주요 관심 연구 분야는 디지털 기술과 마케팅 성과 창출, 조직 변화 관리와 리더십, 조직 커뮤니케이션, 조직 자원 이론 등이다.
    jeo0915@naver.com
    이 필자의 다른 기사 보기
인기기사

질문, 답변, 연관 아티클 확인까지 한번에! 경제〮경영 관련 질문은 AskBiz에게 물어보세요. 오늘은 무엇을 도와드릴까요?

Click!