▶ Based on “Demystifying AI for the Workforce: The Role of Explainable AI in Worker Acceptance and Management Relations” (2025) by Miles M. Yang, Ying Lu and Fang Lee Cooke in Journal of Management Studies, Volume 63 Issue 2, pp. 438-472.
인공지능(AI)은 이제 조직 운영의 핵심 동력이 됐다. 그런데 AI의 의사결정 과정이 불투명한 ‘블랙박스’로 남으면 직원은 기술에 대한 불신을 넘어 조직 전체에 대한 공정성 의구심을 갖게 된다. 이를 해결하기 위해 떠오른 것이 결정 근거를 밝히는 ‘설명 가능한 AI(xAI)’다. 하지만 단순히 상세하게 설명하는 것이 정답일까?
호주 맥쿼리대와 모내시대 연구진은 최근 긱 경제(Gig Economy)의 핵심인 배달 플랫폼 라이더 1107명을 대상으로 AI의 결정 방식과 설명 유형이 직원의 수용성에 미치는 영향을 분석했다. 이 연구는 인지 부하 이론(Cognitive Load Theory)을 적용해 정보의 양이 아닌 ‘처리 가능한 정보의 조화’가 신뢰의 핵심임을 입증하는 데 초점을 맞췄다.
연구진은 AI의 페널티 부과와 그에 따른 이의 제기 거부라는 민감한 상황을 설정해 2×2 형태의 요인 설계 실험을 진행했다. 설명 방식은 크게 두 가지 차원으로 나뉘었다. 첫 번째 축은 ‘반사실적(Counterfactual) 설명’과 ‘사실적(Factual) 설명’의 차이다. 사실적 설명이 “규정 위반으로 벌금이 부과됐다”는 확정적 사실을 전달한다면 반사실적 설명은 “만약 제시간에 완료 가능한 주문만 수락했다면 벌금을 피할 수 있었다”는 식의 ‘대안적 시나리오’를 제시한다.