SR3. 비극을 부르는 잘못된 확신 : 확인 편향

굳어진 믿음으로 잘못된 의사결정
‘내가 틀렸을 수도’ 의심하고, 또 의심하라

282호 (2019년 10월 Issue 1)

Article at a Glance
센스메이킹의 핵심인 정보 탐색과 해석 과정에서 ‘확인 편향 1 (Confirmation Bias)’ 현상은 새로운 가설 탐구를 방해하고 기존 믿음을 강화함으로써 잘못된 의사결정을 낳을 수 있다. 확인 편향은 집단사고를 일으켜 구성원 간 갈등을 증폭시킬 수 있다는 점에서도 위험하다. 의사결정자는 확인 편향 현상의 메커니즘을 이해함으로써 확인 편향의 덫에 빠지지 않을 수 있다. 확인 편향을 피하는 세 가지 방법은 다음과 같다.

1. 가능한 여러 가지 가설 중에서 어느 특정 가설에 너무 빨리 함몰되지 않는다.
2. 한 가지 가설을 받아들이더라도 항상 ‘나의 믿음이 틀렸을 수도 있다’는 열린 마음을 가진다.
3. 집단 사고의 경향을 완화하기 위해 ‘악마의 변호인(devil’s advocate)’을 활용하자.



“인간의 심리는 일단 어떤 의견을 채택하고 나면 (그것이 밖에서 주입된 것이건, 스스로 선택한 것이건 간에) 그 의견을 지켜내기 위해 다른 모든 것을 동원한다. 그리고 그 의견이 아닌 다른 의견이 더 옳다는 것을 보여주는 수많은 유력한 증거가 새롭게 나타난다고 하더라도 그 증거를 무시하고 경멸하거나 단순한 예외로 치부하면서 받아들이기를 거부한다.”
- 프란시스 베이컨(Francis Bacon), 『신기관(Novum Organum, 1620)』 중에서.



사람들은 여러 가지 일에 대해 수많은 믿음을 갖고 살아간다. 예컨대, 어떤 기업의 인사 담당자가 ‘서울 소재 대학 졸업자가 지방대학 졸업자보다 업무 능력이 더 뛰어날 것’이라고 생각한다고 가정해 보자. 그 같은 믿음을 가진 인사 담당자가 최근 채용한 지방대학 출신 신입사원이 서울 소재 대학 졸업자들보다 더 뛰어난 업무 능력을 발휘하고 있다는 사실을 알게 될 경우, 어떤 일이 벌어질까? 그 인사 담당자는 자신이 가진 ‘출신 대학-업무 능력 간의 관계’에 대한 믿음을 약화시킬 수도 있고, 아니면 뛰어난 업무능력을 발휘하고 있는 지방대학 출신 신입사원의 경우를 예외로 간주하면서 기존의 믿음을 그대로 지켜나갈 수도 있다. 이처럼 사람들은 새로운 증거나 정보를 얻게 되면 기존의 믿음을 강화하거나, 유지하거나, 약화시키거나, 때로는 기존 믿음을 버리고 새로운 믿음을 갖게 된다. 기존의 믿음을 갖고 있다가 새로운 증거(또는 정보)를 얻었을 때 사람들은 기존 믿음을 바꿔 나가는 일련의 과정에서 여러 종류의 편향들을 보인다. 확인 편향(confirmation bias)은 이 같은 편향 중에서 심리학자들로부터 가장 많은 주목을 받은 인지적 오류 중 하나다(하영원, 2012; Nickerson, 1998).



일반적으로 확인 편향은 사람들이 어떤 믿음(또는 의견)을 가지고 있을 때 자신의 믿음이 틀렸다는 것을 보여줄 수 있는 정보보다는 그 믿음이 맞았다는 것을 보여줄 수 있는 정보를 비대칭적으로 선호하는 경향을 말한다. 확인 편향은 인간의 추론 과정에서 매우 광범위하게, 또 여러 가지 형태로 나타난다. 예컨대, ‘A형의 혈액형을 가진 사람은 소심하고 꼼꼼하며, 자존심이 매우 강하다’는 ‘혈액형-성격 연관 이론’을 믿고 있는 김영철이라는 사람이 자신의 믿음이 옳은지, 아닌지를 어떻게 검증할지 생각해 보자. 김영철 씨는 앞으로 만나는 사람들의 혈액형과 성격을 알아내 자신의 믿음이 옳은지를 검증해 보기로 했다. 그가 ‘A형이면서 소심한’ 사람을 a명, ‘A형이면서 대범한’ 사람을 b명, ‘A형이 아니면서 소심한’ 사람을 c명, ‘A형이 아니면서 대범한’ 사람을 d명 만났다고 한다면(표 1) 그가 경험하는 사례들은 자신의 ‘A형-소심함’ 이론에 대해 어떤 영향을 미칠까? 아마도 김영철 씨는 새롭게 만나는 사람들 중에서 A형이면서 소심한’ 사람(a셀에 속하는 사람)을 만나는 경우, 그 사례에 매우 높은 가중치를 부여하면서 자신의 기존 믿음을 더 강화할 수 있는 증거로 활용할 것이다. 반면, A형이면서 대범하고 적극적인 사람(b셀에 속하는 사람)을 만난다면 그 사례는 자신의 이론에 대한 예외로 생각하고 a셀에 속한 사례들보다 덜 중요한 사례로 생각할 가능성이 크다. 김영철 씨는 비A형(즉 B형, AB형, O형)의 혈액형을 가진 사람들이 어떤 성격을 가지고 있는지는 자신의 ‘A형-소심함’의 관련성 이론을 검증하는 데 그다지 중요하지 않은 사례로 간주해 버릴 확률이 높다. 특히 d셀에 속하는 증거는 자신의 이론을 검증하는 것과는 별 관련이 없는 사례로 생각하는 경향을 보일 것이다.

실제로 1982년 크로커(Crocker)는 동일한 구조를 가진 연관성 판단 실험에서 사람들은 a> b> c> d 순으로 높은 가중치를 부여한다는 것을 발견했다. 즉, 크로커는 참가자들에게 ‘테니스 선수가 중요한 시합을 앞둔 바로 전날 연습을 하는지, 하지 않는지가 시합에서의 승패에 영향을 주는지 알아내는 경우’를 가정하도록 했다. 그리고 과거의 실제 사례들을 a(연습, 승리), b(연습, 패배), c(비연습, 승리), d(비연습, 패배)의 경우로 나누어 본다면 이들 중 어떤 사례가 연습과 승패의 연관성을 판단하는 데 필요한 정보인지를 물었다(복수 응답 가능). 실험 결과 a 사례들은 참가자의 77%, b는 63%, c는 40%, d는 26%가 꼭 필요한 정보라고 대답했다. 즉, 실험 참가자들은 자연스럽게 ‘바로 전날 연습을 하면 승리할 것이다’라는 가설을 갖고, 이를 검증하기 위해 바로 전날 연습을 하고 나서 시합에서 승리한 사례를 자신의 가설을 검증하기 위해 가장 필요한 정보로 생각한 것이다. 그러나 이 같은 경우에 통계학적으로 옳은 판단을 하기 위해서는 a, b, c, d셀에 속한 모든 사례에 동등한 가중치를 둬야 한다. 그런 의미에서 실험 참가자들이 a> b> c> d 순으로 가중치를 두는 것은 확인 편향이 나타나는 전형적인 예라고 할 수 있다. 2



확인 편향은 기업의 의사결정에도 중요한 영향을 미칠 수 있다. 특히 의사결정자들이 새로운 정보를 탐색하거나 해석할 때 자연스럽게 기존에 가진 믿음이나 의견을 고수하는 방향으로 판단을 내리는 확인 편향 현상이 나타나기 쉽다. 특히 기업이 위기 상황일 때는 이 같은 확인 편향이 치명적인 오류를 가져올 수 있다. 예컨대, 상황을 지나치게 낙관적 혹은 비관적으로 보게 될 경우 그와 반대되는 정보를 받아들이지 않고 자기 생각과 일치하는 정보만 선택적으로 받아들임으로써 잘못된 의사결정을 할 수 있다. 이런 점에서 확인 편향은 올바른 센스메이킹을 방해하는 가장 큰 장애물이라고 볼 수 있다. 인간의 인지 과정에서 발생하는 확인 편향 현상을 이해하면 그것을 극복하기 위한 방법도 살필 수 있다. 다음에서 센스메이킹의 정보 탐색과 해석 과정에서 발생할 수 있는 확인 편향 현상과 부작용을 살펴보고, 확인 편향을 극복하는 노하우를 정리하고자 한다.


정보 탐색 과정에서의 확인 편향

확인 편향이라는 용어는 영국의 심리학자 피터 웨이슨(Peter Wason)이 만들었다. 웨이슨(1960)은 그가 고안한 고전적 실험 과업을 통해 사람들이 정보의 탐색 과정에서 자신이 갖고 있는 가설을 부정하기 위한 정보보다는 확인하기 위한 정보를 탐색하는 경향이 있다는 사실을 밝혔다. 웨이슨은 29명의 대학생에게 2-4-6이라는 3개의 숫자를 보여주고 이 숫자들이 어떤 규칙에 의해 생성된 숫자인지를 알아맞히는 게임을 실시했다. 이 게임에서 실험 참가자들은 자신이 짐작한 규칙(예컨대, ‘2씩 증가하는 짝수’)을 검증해 보기 위한 3개의 숫자(예컨대, 4-6-8)를 연속해서 만들어 제시하도록 하고, 3개의 숫자를 제시할 때마다 그것이 실험자가 갖고 있는 진짜 규칙(‘증가하는 3개의 숫자’)에 맞는지, 틀리는지 ‘네/아니요’로 알려줬다. 웨이슨은 실험 참가자들이 진짜 규칙이 무엇인지 알아냈다고 생각하면 숫자 제시를 멈추고 자신이 생각하는 규칙이 무엇인지 자유롭게 말해 보도록 했다.

실험 결과, 29명의 참가자 중 진짜 규칙인 ‘증가하는 3개의 숫자’를 맞춘 사람은 오직 6명에 지나지 않았다. 대부분의 참가자는 2-4-6이라는 숫자를 보고 ‘2씩 증가하는 짝수’와 같은 가설을 떠올리고 가설을 검증하기 위해 4-6-8과 같이 자신의 가설에 맞는 예를 지속적으로 제시했다. 그러고 나서 많은 참가자는 규칙을 알아냈다고 생각하고 ‘2씩 증가하는 짝수’ 같은 틀린 규칙을 자신 있게 제시했다. 이 게임에서 올바르게 가설을 검증하는 방법은 자신의 가설에 맞지 않는 사례(예컨대, 1-3-5 또는 2-4-7)가 진짜 규칙에 맞는지를 테스트하는 것이다. 왜냐하면 자신의 가설에 맞지 않는 사례가 진짜 규칙에 맞는 사례라는 것을 알게 된다면 잘못된 자신의 가설을 수정할 수 있기 때문이다. 하지만 대부분의 사람은 기존 가설을 고수하는 경향을 보였다. 이 실험은 사람들이 정보 탐색 과정에서 심각한 확인 편향을 나타낸다는 것을 보여준다.



하지만 사람들이 가진 이런 일반적인 성향에 ‘편향’이라는 부정적인 꼬리표를 반드시 붙일 필요는 없다. 웨이슨의 2-4-6 실험과 관련해 클레이만과 하영원(Klayman & Ha, 1987)은 이 실험 과업이 ‘규칙 알아맞히기’ 게임 중에서도 독특한 과업 구조로 돼 있기 때문에 사람들이 귀납적 추론에서 흔히 사용하는 ‘확인 전략’의 부정적 측면이 지나치게 과장돼 있다고 주장했다. 웨이슨의 2-4-6 실험에서는 실험 참가자들이 흔히 갖게 되는 ‘2씩 증가하는 짝수’ 같은 가설은 진짜 규칙인 ‘증가하는 숫자’의 부분 집합을 구성하고 있기 때문에 가설을 확인하기 위한 정보 탐색 전략을 사용하는 경우, 자신의 가설을 수정할 수 있는 부정적 피드백을 얻을 수 없다. 만일 진짜 규칙이 ‘증가하는 3개의 숫자’가 아니라 ‘10 이하의 증가하는 3개의 숫자’라면 참가자가 확인 전략을 사용하더라도 8-10-12와 같은 사례를 테스트해 보는 순간 부정적 피드백을 얻게 되고, 따라서 자신의 가설을 수정할 수 있는 기회를 갖게 됐을 것이다. (그림 1) 따라서 가설과 진짜 규칙이 겹쳐지는 부분이 있는 경우가 좀 더 일반적인 상황이라고 한다면 확인 전략은 반드시 가설의 수정을 불가능하게 만드는 정보 탐색 전략이라고 볼 수는 없다는 것이다. 오히려 정보 탐색에 있어서의 확인 편향은 ‘편향’이라기보다는 사람들이 귀납적 추론에서 널리 활용하는 ‘긍정적 검증 전략(positive test strategy)’이라는 일반적인 휴리스틱으로 보는 것이 타당하다. 사람들은 정보를 탐색할 때 특별한 실마리가 없는 경우 일반적으로 자신의 가설에 맞는 긍정적인 예를 테스트하려는 경향을 보인다. 다만 웨이슨의 2-4-6 실험의 경우처럼 가설이 진실의 일부를 구성하는 경우에는 가설 수정이 어려울 수 있다.


정보 해석 과정에서의 확인 편향

확인 편향은 정보 탐색 과정뿐만 아니라 정보 해석 과정에서도 나타난다. 로드와 그의 동료들 (Lord, Ross & Lepper, 1979)은 사형제도에 대해 강한 찬성과 강한 반대 의견을 가진 두 그룹의 스탠퍼드대 학부생들에게 사형제도의 범죄 억지 효과에 관해 상반되는 결과를 낸 두 개의 연구 내용을 모두 읽어보도록 했다. 하나는 ‘사형제도가 살인죄의 빈도를 줄이는 효과가 있다’고, 다른 하나는 ‘사형제도의 도입이 오히려 살인죄의 사례를 증가시킨다’는 결론이었다. 이 경우, 두 연구가 사회과학적으로 인정되는 상이한 방법론을 활용해 서로 충돌하는 결론을 얻었으므로 실험 참가자의 입장에서 본다면 객관적이기는 하지만 찬반의 결론이 섞여 있는 ‘혼합 증거(mixed evidence)’라고 볼 수 있다. 실험 결과, 사형제도를 찬성하는 그룹은 자신의 원래 찬성 입장을 더욱더 강화했고, 반대 그룹은 원래 입장보다 더 강하게 반대하는 입장으로 돌아섰다. 두 그룹은 동일한 ‘객관적 증거’에 노출됐지만 서로의 입장 차이는 오히려 더 벌어지고 만 것이다.

로드와 그의 동료들은 이 연구에서 사람들이 객관적인 혼합 증거에 노출될 경우, 자신의 의견을 지지하는 증거는 높이 평가하는 반면 위협하는 증거는 여러 가지 이유로 폄하하거나 무시해 버린다는 것을 발견했다. 이처럼 서로 다른 의견을 가진 사람들이 새로운 정보를 각각 자신의 의견을 강화하는 방향으로 해석하는 경향은 정치 분야에서도 나타난다. 웨스턴과 그의 동료들 (Western et al. 2006)은 신경과학적 방법을 사용한 연구에서 공화당 후보를 지지하는 사람들은 공화당 대통령 후보의 모순되거나 위선적인 발언에 대해서는 관대한 반면 민주당 대통령 후보의 모순되거나 위선적인 발언에 대해서는 매우 비판적이라는 것을 밝혔다. 반대의 경우도 마찬가지였다. 연구자들은 기능적 자기 공명 영상(fMRI, functional magnetic resonance imaging)을 활용한 연구에서 실험 참가자들 자신이 열렬하게 지지하는 후보의 모순적/위선적 발언에 접했을 때 그들에게는 인지부조화가 발생하며 참가자들은 이를 감소시키기 위해 적극적으로 노력한다는 것을 발견했다. 그 과정에서 참가자들에게 정보 해석에 있어서의 확인 편향이 나타난 것이다.



약한 믿음과 강한 믿음의 영향

확인 편향은 믿음의 강도와 무관하게 일상적으로 사람들의 추론에 영향을 미친다. 예를 들어, 어떤 주식투자자가 ‘A기업이 도산 직전에 있다’는 루머를 듣게 됐다고 가정해 보자. 그 투자자는 루머를 액면 그대로 믿기는 어려웠지만 자신이 A기업의 주식을 상당량 보유하고 있었기 때문에 매도를 고려하기 시작했다. 이 시점에서 확인 편향이 작동한다. 투자자는 인터넷을 통해 A기업 뉴스를 검색할 때 A기업의 파산을 예측하는 뉴스들 위주로 검색하고 읽게 된다. ‘A기업이 커다란 시장 잠재력을 가진 신제품을 방금 출시했다’ 같은 긍정적 뉴스는 그의 눈에 잘 들어오지도 않을뿐더러 설령 눈에 띄더라도 무시될 가능성이 크다. 그 결과, 그는 큰 손해를 감수하고 A기업의 주식을 팔았지만 그 후 A기업의 주식 가격은 가파르게 상승해 연중 최고치를 기록했다. 이런 가상의 예는 현실에서 흔히 벌어지는 일이다. 사람들은 루머같이 신뢰성이 낮은 정보를 액면 그대로 믿지는 않는 것이 보통이지만 그 루머가 의사결정자에게 가설 형태의 약간의 믿음이라도 심어줄 수 있다면 그 가설은 의사결정자의 추후 정보 탐색과 해석에 큰 영향을 미친다. 이 같은 과정을 통해 확인 편향이 의사결정자에게 지나친 자신감을 갖게 만들며, 결과적으로 잘못된 의사결정을 내리게 만든다. 투자의 귀재 워런 버핏(Warren Buffett)도 투자자들이 가장 능숙하게 수행하는 일은 “모든 새로운 정보를 자신이 갖고 있는 기존 결론을 바꾸지 않는 방향으로 해석하는 것”이라며 투자자의 확인 편향을 경고했다.

사람들의 믿음 중에는 가설 수준의 약한 믿음도 있지만 특정 이념의 열렬한 지지자가 갖고 있는 정치적 신념이나 독실한 신앙인의 종교적 신념처럼 강한 믿음도 있다. 정보 탐색이나 해석에 있어서의 인지적 편향인 확인 편향은 믿음의 강약과 무관하게 나타나지만 강한 믿음의 경우 그 믿음을 지키려는 동기적인 요소가 동시에 작용한다. 강한 믿음을 가진 사람들은 자신의 견해에 명백하게 반하는 정보에 접하게 되는 경우에도 자신의 믿음을 지키기 위해 그 정보를 무시하거나 정보원을 폄하하는 등의 방법으로 자신의 믿음을 지킨다. 이 같은 현상은 정치적으로 보수적인 견해를 가진 사람과 진보적인 견해를 가진 사람 간의 충돌이나 인간의 기원에 대한 창조론자와 진화론자 사이의 논쟁에서 쉽게 찾아볼 수 있다. 특히 서로 견해를 달리하는 집단 간의 논쟁이 가열되면 사람들은 자신의 믿음에 자아를 지나치게 투영하고, 자신의 믿음에 반하는 증거를 자아존중감(self-esteem)을 위협하는 요소로까지 간주한다. 그 결과 기억 속에서 자신의 믿음을 지지하는 정보를 선택적으로 탐색해 내거나 자신의 믿음에 명백하게 반하는 증거들을 왜곡하고 무시해 버리는 확인 편향을 보이게 되는 것이다.



확인 편향과 집단사고

확인 편향은 특정 그룹의 구성원들에게 집단사고(groupthink)라는 현상으로 나타나기도 한다. 응집력이 높은 집단의 구성원들이 그룹의 화합과 일체성을 지나치게 강조하게 되면 ‘우리 의식’의 역기능적 측면 때문에 구성원들의 반론 제기나 대안적인 해법의 제시가 억압되는 것이다. ‘우리’라는 집단에 속한 구성원들은 비슷한 생각을 가진 사람들에게 둘러싸여 있기 때문에 자신의 생각을 끊임없이 확인하게 되며, 그 결과 자신이 속한 그룹은 취약점이 없다고 생각하는 ‘무취약성의 환상(illusion of invulnerability)’에 빠지게 된다(Janis, 1982). ‘우리’를 ‘타인들’로부터 배타적으로 구분하는 집단사고가 ‘우리’를 위협한다고 생각되는 ‘타인들’에 대한 증오와 결합하면 1940년대에 나치 독일에 의해 저질러진 유대인 대학살에서 볼 수 있듯 매우 위험한 형태의 집단증오(group hatred)로까지 발전할 수 있다. 재니스(Janis, 1982)는 특정 집단에서 집단사고의 경향이 나타나고 있음을 알 수 있는 징후로 자기 집단의 도덕성에 대한 확신, 자기 집단의 가정 (assumptions)에 도전하는 경고들에 대한 자기 합리화, 자기 집단에 반대하는 사람들을 편향되고 사악한 사람들로 매도하기, 자기 집단 구성원의 의구심을 ‘불충(disloyalty)’으로 간주해 직접적 압력을 가하는 현상 등을 들고 있다.

2016년 미국 대통령 선거에서 대부분의 뉴스 미디어가 보여준 당선자 예측의 실패는 집단사고를 보여주는 하나의 예로 볼 수 있다. 미국 대통령 선거 하루 전인 11월7일, 뉴욕타임스는 힐러리 클린턴(Hillary Clinton)이 당선될 확률을 84%로 봤으며, 로이터통신은 90%, 허핑턴포스트는 “980만 번의 시뮬레이션”에 근거해 무려 98.2%로 추정했다. 이처럼 많은 언론사의 잘못된 예측은 ‘도널드 트럼프(Donald Trump) 같은 ‘괴이한’ 후보가 미합중국의 대통령이 돼서는 안 된다’는 확신에 기인했던 것으로 보인다. 이 같은 확신은 클린턴이 트럼프에게 우세를 점하고 있다는 일련의 여론 조사 결과에 의해 지속적으로 확인되고 있었다. 그러나 언론사들은 트럼프 지지자들 중에서 상당수가 사회적 소외의 우려 때문에 트럼프 지지를 밝히는 것을 꺼릴 수 있다는 가능성을 외면했을 뿐만 아니라 추세상으로 선거일이 가까워질수록 클린턴과 트럼프의 지지율 격차가 좁혀지고 있다는 사실을 간과했다(Wilcox, 2010).

비즈니스의 세계에서도 집단사고 사례는 어렵지 않게 찾아볼 수 있는데 한때 ‘날아다니는 은행(Flying Bank)’이라는 별명을 얻을 정도로 재무적 안정성을 자랑했던 스위스에어(Swissair)의 도산이 한 예이다. 스위스에어의 구성원들은 스위스에어의 무취약성과 도덕성에 대해 확신으로 가득 차 있었다. 그 결과 스위스에어는 주요 의사결정 기구인 이사회에서 항공업계 전문가들을 배제하고 비슷한 배경과 가치관을 가진 동질적인 소수의 비전문가로 이사회를 구성함으로써 의사결정상의 집단사고가 나타날 가능성을 높였다. 비전문가들로 구성된 이사회가 내린 일련의 잘못된 의사결정은 결국 스위스에어가 도산하는 결과를 가져왔다(Herman & Rammal, 2010).


확인 편향을 피하려면?

심리학자들은 확인 편향을 추론 과정에서 나타나는 대표적인 인지적 오류 중 하나로 인식하고 있다. 그러나 확인 편향이 반드시 부정적인 측면만 가지고 있는 것은 아니다. 예컨대, 확인 편향은 어떤 믿음을 갖고 있는 사람이 정보의 탐색과 해석 과정에서 주관적으로라도 그 믿음을 지지할 수 있는 증거를 찾아낼 가능성을 높여줌으로써 자아존중감(self-esteem)의 훼손을 방지하는 효과를 주기도 한다. 과학의 세계에서도 확인 편향은 그 정도가 지나치지만 않다면 긍정적 결과를 가져오기도 한다. 예컨대, 과학자들은 기존의 잘 확립된 이론을 한두 가지의 반증(counterevidence) 때문에 폐기해 버리는 것을 꺼리는 보수주의적 경향을 보인다. 과학자들의 이 같은 확인 편향은 잘못된 방법론에 의해서 수행됐을 수도 있는 소수의 반증적 연구 결과들로부터 기존 이론이 불필요할 정도로 급작스럽게 흔들리는 것을 막아주는 역할을 수행한다(Fischhoff and Beyth-Marom, 1983). 과학자들 사이에서 잘 확립된 기존 이론의 폐기는 몇 가지 새로운 반증의 출현에 의해서라기보다는 끊임없는 반증의 축적과 그 반증들을 기존 이론보다 더 잘 설명해낼 수 있는 새로운 이론의 출현에 의해서 가능해지는 것이다(Nickerson, 1998).

확인 편향의 순기능적 측면에도 불구하고 확인 편향은 많은 경우 의사결정자의 판단과 의사결정을 왜곡함으로써 심각한 부정적 결과를 초래한다. 예컨대, 확인 편향은 여러 종류의 망상과 편집증을 가져오기도 하며 미신적 믿음의 영속화에도 기여한다. 또 의사결정자가 자신의 판단 능력에 대한 지나친 자신감을 갖도록 함으로써 잘못된 판단과 선택을 하도록 만든다. 확인 편향이 집단적 차원에서 작동하면 서로 다른 세계관을 가진 집단들 간의 적대감과 분쟁을 영속화하는 결과를 가져올 수 있다. 확인 편향은 인간의 심리 과정에 깊이 자리 잡고 있는 성향이기 때문에 완전한 해결책을 찾기는 어렵지만 그 악영향을 최소화하기 위해 다음과 같은 방법들을 활용할 수 있다.



첫째, 가능한 여러 가지 가설 중에서 어느 특정 가설에 너무 빨리 함몰되지 않도록 노력해야 한다. 인간은 정보 처리 능력의 한계 때문에 하나의 가설을 받아들이고 나면 다른 가설을 고려하거나 검증할 가능성이 현저하게 낮아지고, 기존에 갖고 있던 가설을 확인하고자 노력하는 경향을 보인다. 따라서 하나의 가설을 자신의 믿음으로 받아들이기 전에 여러 가지 대안적 가설을 고려하고 충분한 정보를 수집해 여러 가설의 타당성을 검증할 필요가 있다.

둘째, 여러 가설 중 하나를 자신의 믿음으로 받아들였다고 하더라도 항상 ‘나의 믿음이 틀렸을 수도 있다’는 열린 마음을 가져야 한다. 그러기 위해서는 감정을 배제하고 가능한 한 객관적이고 중립적인 시각으로 새로운 정보를 처리하는 습관을 가질 필요가 있다. 특히 자신의 믿음에 반하는 새로운 정보에 접했을 때, 자신의 믿음이 틀릴 수 있는 이유들과 대안적 믿음이 옳을 수 있는 이유들을 의식적으로 떠올려 보는 습관이 중요하다. 그에 더하여 새롭게 나타나는 정보(증거)의 진실성을 판별할 수 있는 혜안을 기르는 것이 필요하다.

셋째, 집단사고의 경향을 완화하기 위해서는 ‘악마의 변호인(devil’s advocate)’이라는 방법을 활용할 수 있다. ‘악마의 변호인’은 집단 의사결정에서 다수의 의견에 일부러 반대하는 역할을 부여받은 사람을 말한다. 이 같은 방법을 활용할 때 그룹 리더는 토론에 참여하지 않음으로써 자신의 의견이 토론에 지나친 영향을 주지 않도록 하는 것이 보통이다. 이때 누가 ‘악마의 변호인’ 역할을 맡고 있는지 미리 알려지지 않도록 주의할 필요가 있다. 이렇게 하면 집단 의사결정상의 확인 편향이라고 할 수 있는 집단사고의 가능성을 최소화할 수 있다.


참고문헌
1. 하영원 (2012). 의사결정의 심리학, 경기도 파주시: 21세기북스.
2. Crocker, J. (1982). Biased questions in judgment of covariation studies. Personality and Social Psychology Bulletin, 8, 214-220.
3. Fischhoff, B., & Beyth-Marom, R. (1983). Hypothesis evaluation from a Bayesian perspective. Psychological Review, 90, 239-260.
4. Herman, A., & Rammal, H. G. (2010). The grounding of the “flying bank”. Management Decision, 48 (7), 1051.
5. Janis, I. L. (1982). Groupthink: Psychological study of policy decisions and fiascoes. Boston: Houghton Mifflin.
6. Klayman, J. & Ha, Y.-W. (1987). Confirmation, disconfirmation, and information in hypothesis testing. Psychological Review, 94 (2), 211-228.
7. Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2 (2), 175-220.
8. Lord, C., Ross, L., & Lepper, M. (1979). Biased assimilation and attitude polarization: The effect of prior theories on subsequently considered evidence. Journal of Personality and Social Psychology, 37, 2098-2109.
9. Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual task. Journal of Personality and Social Psychology,129-140.
10. Western, D., Blagov, P. S., Harenski, K., Kilts, C., & Hamann, S. (2006). Neural bases of motivated reasoning: An fMRI study of emotional constraints on partisan political judgment in the 2004 U.S. presidential election. Journal of Cognitive Neuroscience, 18 (11), 1947-1958.
11. Wilcox, C. (2010). Groupthink: An impediment to success. Bloomington, IN: Xlibris Corp.



필자소개 하영원 서강대 경영학부 교수 ywha@sogang.ac.kr
필자는 서울대 법학과를 졸업하고 미국 시카고대에서 경영학 석사 및 박사 학위를 받았다. 저명한 국제 학술지 Journal of Consumer Research, Psychological Review 등에 다수의 논문을 게재했다. 한국소비자학회 회장, 한국마케팅학회 회장 등을 역임했다. 저서로는 『의사결정의 심리학』이 있다.


동아비즈니스리뷰 285호 AI on the Rise 2019년 11월 Issue 2 목차보기