로그인|회원가입|고객센터|HBR Korea
페이지 맨 위로 이동
검색버튼 메뉴버튼

Special Report

AI 시대, ‘질문하는 소크라테스’의 힘

이진우,정리=배미정 | 429호 (2025년 11월 Issue 2)
AI 추론을 직관-윤리로 검증해야 할 인간
‘왜’라는 소크라테스적 질문 계속 던져야
Article at a Glance

인공지능(AI)이 인간처럼 생각하고 공감 능력을 보이는 존재로 발전하면서 우리 삶과 지성 자체를 근본적으로 변화시키고 있다. AI가 패턴 인식과 통계적 상관관계를 통해 지식을 비약적으로 확장시키는 가운데 인간이 스스로 세계의 의미를 구성하고 맥락적 이해를 통합하는 과정은 생략되거나 약화될 수 있다. 다시 말해 AI가 단순한 일자리 변동을 넘어 추론, 판단, 기억, 질문 등 인간 고유의 핵심 역량을 쇠퇴시키는 본질적인 위험을 가져올 수 있다. 과거 소크라테스가 지식을 절대화하는 ‘소피스트’에 맞섰듯이 오늘날 인간은 AI에 맞서 무지를 인정하고 끊임없이 ‘왜(Why)’라는 소크라테스적 질문을 던져야 한다. AI 시대에 인간이 궁극적으로 질문을 설정하고 가치를 판단하는 주체로 남기 위해서는 직관, 상상력, 윤리적 성찰과 같은 인간 고유의 역량을 강화해야 한다.



GettyImages-2183445495


모든 혁명적 기술은 처음의 충격이 사라졌을 때 비로소 그 혁명적 효과를 드러내기 시작한다. 우리는 인류 역사상 위대한 혁명 중 하나를 경험하고 있다. 산업혁명에 비견될 만한, 아마도 그보다 더 획기적인 혁명일지도 모른다. 그리고 그것이 좋은지 나쁜지는 지금으로서는 사실상 말할 수 없다. 인공지능 이야기다. 2022년 11월 30일 오픈AI가 인간이 쓴 것 같은 문장을 생성하는 챗GPT를 공개함으로써 그야말로 AI 시대가 열렸다.

많은 사람은 인간처럼 생각하고 느끼고 대화하는 인공지능의 등장에 놀랐다. 챗봇 형태로 운영되는 인공지능은 단순하지만 획기적이었다. 우리가 일상적으로 대화할 수 있다는 점에서 단순하고, 대화의 상태가 기계라는 점에서 획기적이다. 인공지능 기계가 인간과 소통할 수 있는 파트너가 된 것이다. 인공지능은 인간보다 똑똑한 것만이 아니다. 인공지능은 뛰어난 공감 능력을 보여준다. 감정이 없는 인공지능이 실제로 공감하는 것이 아니라 단지 공감하는 것처럼 보일 뿐이라고 지적하는 사람들이 있다. 그러나 인공지능이 앨런 튜링의 ‘이미테이션 게임’ 아이디어에서 발전한 것처럼 인공지능 시스템 자체가 실제로 인간과 같은 지능을 가졌는지는 중요하지 않다. 우리에게 ‘지능적으로 보이는 무언가’를 산출한다는 게 중요하다.

미래학자들이 예언했던 인공지능의 특이점, 즉 AI가 인간의 능력을 넘어서는 그 순간이 예상보다 빠르게 다가오고 있는 것처럼 보인다. 우리에게 단지 그렇게 보일 뿐이라도 인간보다 더 똑똑하고 인간보다 공감 능력이 뛰어난 인공지능 기계가 출현한다면 우리의 삶은 도대체 어떻게 변화할까? 사람들은 어떻게 변화할지는 확실하지 않아도 변화할 것이라는 사실은 확신한다. 변화는 확실한데 그 방향과 규모를 알 수 없을 때 우리는 소크라테스처럼 질문해야 한다. 사람들이 AI가 혁명적이라고 주장할 때 우리는 인공지능에서 ‘도대체 무엇이 혁명적인가?’라고 물어야 한다. 우리는 현상이 단순히 바뀌는 피상적 변화를 결코 혁명적이라고 생각하지 않는다. 어떤 사람은 인공지능의 효과가 인간이 발명한 불이나 전기보다 클 것이라고 장담하고, 어떤 사람은 인공지능이 산업혁명과 맞먹는 생산성의 증대를 가져올 것이라고 예언한다. 인공지능으로 자율주행 자동차가 돌아다니고, 많은 로봇이 인간 대신 제품을 생산하는 것이 혁명적일 수도 있다. 그러나 인공지능을 발명한 인간 지성 자체가 AI로 인해 근본적으로 변화한다면 이러한 지성 혁명이야말로 이제까지 세계를 이해하는 방식의 패러다임을 근본적으로 바꿔놓을 것이다.


신화에서 철학으로
패러다임을 바꾼 ‘질문’의 힘

인공지능에 의한 혁명적 변화의 본질을 파악하려면 우리는 패러다임의 변화를 정확하게 포착해야 한다. 소크라테스는 이러한 패러다임의 변화를 이해하는 데 매우 유용한 길잡이다. 소크라테스는 철학의 창시자일 뿐만 아니라 ‘신화에서 철학으로의 전환’을 상징한다. 신화라는 말이 ‘말하다’ ‘이야기하다’라는 뜻의 낱말에서 비롯된 것처럼 신화는 신들의 계보, 영웅들의 행적, 자연 현상의 기원을 이야기로 설명한다. 세계를 이해하는 방식으로서의 신화의 핵심은 ‘기억’과 ‘구전 전승’이었다. 세상을 아는 것은 곧 이야기를 기억하고 전하는 것이었지 세상이 왜 그런지를 따져 묻는 것이 아니었다. 신화는 세계를 이해하려는 노력의 한 방식이었지만 설명의 힘은 기억된 이야기 속에 있었다.

기원전 6~5세기 그리스의 사상가들은 세계를 설명하는 방식에서 신화를 벗어나 ‘로고스(Logos)’의 길을 열었다. 예컨대 탈레스는 만물의 근원은 물이라고 말하면서 세상을 더 이상 제우스의 의지가 아니라 자연적 원리로 설명하려 했다. 여기서 중요한 것은 ‘무엇이 근원인가?’ ‘왜 이런 일이 일어났는가?’ ‘세계는 왜 그렇게 존재하는가?’라는 질문이 등장했다는 점이다. 철학은 신화처럼 기억된 이야기를 반복하지 않고 스스로 물음을 던지고 논증으로 답하는 시도였다. 여기서 우리는 질문으로써 세계를 이해하려는 방식이 ‘신화에서 철학으로의 패러다임의 전환’을 가져왔다는 것을 알 수 있다.

소크라테스는 질문 자체를 인간의 핵심적인 역량으로 파악한 최초의 철학자다. 신화에 대한 신뢰가 쇠퇴하고 질문을 통해 지식이 증대했지만 인간은 자신의 지식을 절대화하려는 경향이 있다. 사람들이 기억된 이야기보다는 질문과 논증으로 세계를 이해하는 학문적 태도를 높이 평가할수록 이러한 활동을 전문적으로 하는 사람들이 생겨났다. 기원전 5세기 중엽 아테네가 페르시아전쟁 이후 민주정 체제를 발전시키면서 전문적으로 수사학, 논변술, 정치적 덕목을 가르친 사람들은 ‘지혜로운 사람’ 또는 ‘지혜를 가르치는 사람’이라는 뜻으로 ‘소피스트’로 불렸다. 이들은 논쟁에서의 설득력을 중시했으며 도시를 여행하며 지식을 전파했고 ‘지적 직업인’이라는 새로운 계층을 만들어 냈다. 이들은 지식을 절대화하고 상업화했다는 점에서 현대 과학과 맥이 통한다.

소크라테스는 지식이 절대화되던 시기에 질문의 중요성을 역설한다. 신화의 기억된 이야기가 질문을 허용하지 않는 것처럼 지식의 절대화는 질문을 배척한다. 질문과 논증으로 발전한 과학과 학문이 오히려 질문을 경시한다는 것은 역설이다. 소크라테스는 지식을 주장하기보다는 오히려 자신의 무지를 인정한다. 친구 카이레폰이 델포이 신탁에서 “소크라테스보다 더 지혜로운 사람은 없다”는 대답을 듣자 소크라테스는 이를 반박하려고 지혜롭다고 자부하는 사람들을 찾아다닌다. 이 과정에서 소크라테스는 바로 “나는 내가 모른다는 것을 안다”라는 통찰에 도달한다. 소크라테스는 지혜롭다고 주장하는 사람들보다 자신이 더 지혜롭다고 주장하면서 이렇게 말한다. “이 사람보다는 내가 더 지혜롭다. 왜냐하면 우리 둘 다 아름답고 훌륭한 것을 전혀 알지 못하는 것 같은데 이 사람은 어떤 것을 알지 못하면서도 안다고 생각하는 반면에 나는 내가 모른다는 것을 알기 때문이다.”

지금 우리가 이런 소크라테스를 소환하는 것은 인공지능이 우리의 세계 이해 방식을 혁명적으로 바꾸기 때문이다. AI 시대 이전에는 지식과 이해가 나란히 움직였다. 지식이 증대하면 세계에 대한 인간의 이해도 깊어졌다. ‘지식’은 관찰과 가설과 검증을 통해 ‘무엇(what)이 그러한가’를 아는 단계이다. 이에 반해 ‘이해’는 단순히 사실을 아는 것을 넘어 그것이 ‘왜(why) 그러한가’를 파악하고 자신의 사고 체계 안에서 의미의 연관관계로 통합하는 과정이다. 이해는 단순히 데이터를 아는 것이 아니라 그것을 맥락과 가치와 목적 속에서 재구성할 수 있는 능력이다. AI는 대규모 데이터의 통계적 상관관계를 학습해 예측 가능한 설명을 제공한다. 이 과정은 귀납적이거나 연역적 사고의 의미에서 ‘이해’라기보다 패턴 인식과 확률 계산에 가깝다. 다시 말해 인공지능은 ‘왜?’보다는 ‘그럴 가능성이 높은 것’을 말해주며 인간이 그 의미를 내적으로 연결하는 과정을 생략한다. 인공지능이 발전할수록 우리는 AI가 어떤 과정을 통해 그런 대답을 내놓는지 알지 못하게 된다. AI는 인간의 지식을 확장하지만 이해를 확장하진 않는다. 또한 인간의 지식 체계를 비약적으로 확장시키지만 동시에 ‘이해의 경험’을 대체하면서 세계의 의미를 함께 구성하는 존재로서의 인간의 역할을 약화시킬 수 있다.

이 같은 지성 혁명은 인공지능이 우리에게서 질문의 역량을 완전히 박탈할 수도 있다는 두려움을 불러일으킨다. 우리 인간은 질문과 논증을 통해 지식을 발전시키고 이러한 지식의 축적과 유통을 통해 새로운 지식을 생산했다. 그 궁극적 산물이 바로 인간보다 똑똑한 인공지능이다. 남일리노이아대 카본데일에서 석좌교수를 지낸 버크민스터 풀러의 ‘지식 배가 곡선(Knowledge Doubling Curve)’에 따르면 인간의 지식 축적 속도가 급격히 가속화돼 왔으며 배가 시간이 수 세기에서 수년으로, 결국에는 정보화 시대에 이르러 수개월 또는 수 시간으로 단축됐다고 가정한다.

풀러는 이러한 기하급수적인 추세를 관찰하며 1900년 이전에는 지식이 거의 매 세기마다 두 배로 증가했지만 20세기 중반에는 이 기간이 25년으로 단축됐고 1982년에는 약 12~13개월로 단축됐다고 지적한다. 인공지능으로 더욱 가속화된 지식의 증대는 인간의 기억 용량을 넘어서고 결국에는 질문이라는 핵심 역량을 파괴할 것이다.


일자리보다 심각한 위협
‘인간 역량’의 상실

진짜 위험은 멀리 볼 때 비로소 보이는 데도 사람들은 위험을 감지하면 가까운 것을 제일 먼저 본다. 인공지능이 우리의 삶과 사회를 바꿔놓은 것이라는 두려움이 강한데도 변화된 모습이 쉽게 잡히지 않는다면 우리는 지금 하는 일에 집중한다. 내가 하는 일을 계속할 수 있을까? 일자리가 유지되더라도 하는 일은 바뀌지 않을까? 인공지능이 나의 일자리에 영향을 주지 않는다면 인공지능은 아무리 똑똑하더라도 우리가 발전시킨 가장 효율적인 도구에 지나지 않는다. 똑똑하다는 것은 가공할 만한 효율성에 대한 감탄의 비유일 뿐이다.

그러나 21세기 들어 인공지능의 발전은 단순히 기술적 혁신에 머물지 않고 사회·경제 전반에 구조적 변화를 초래하고 있다. 과거 자동화가 단순 반복적인 육체노동을 대체했다면 오늘날의 인공지능은 데이터 분석, 언어 처리, 의료 진단, 법률 자문 등 전통적으로 인간의 고유 영역이라 여기던 화이트칼라의 정신노동까지 침범하고 있다. 이에 따라 사람들은 ‘AI가 인간의 일자리를 빼앗을 것’이라는 불안을 점점 더 크게 느끼고 있다. 그러나 문제는 단지 고용의 축소에 그치지 않는다. 더 심각한 위험은 우리가 인공지능에 의존할수록 추론, 판단, 기억, 상상력과 같은 인간의 고유 역량이 쇠퇴할 수 있다는 점이다. 따라서 우리는 인공지능 시대를 논할 때 일자리의 수적 증감만이 아니라 인간 역량의 변화에 주목해야 한다.

우리가 인공지능이 가져올 현상적 변화인 일자리의 변동에 집중할수록 훨씬 더 본질적인 변화라고 할 수 있는 인간 역량의 쇠퇴는 간과될 수 있다. 인공지능으로 인해 인간이 기계에 의해 대체되는 일은 결코 빅뱅처럼 일어나지 않는다. 과거에는 거의 모든 일을 인간이 했다면 기계가 처리하는 일이 점점 더 늘어나고 언젠가 거의 모든 일이 인간과 기계의 협업 또는 기계에 의해 수행될 것이다. 인공지능의 발전은 혁명적이지만 인공지능으로 인한 사회의 변화는 점진적이다. 노벨경제학상 수상자인 다론 아제모을루 MIT 경제학과 교수는 AI가 고용을 줄이기보다는 노동의 성격과 가치를 재편할 것이라고 주장한다. 기술은 인간을 대체하기보다는 인간을 보완하는 방향으로 작용할 수 있지만 그 보완의 형태가 단순한 보조를 넘어 인간의 핵심 역량을 약화시킬 수 있다. 갑자기 끓는 물에 들어가면 깜짝 놀라 뛰쳐나오지만 만약 서서히 따뜻해져 끓게 되는 물에 들어가면 그 변화를 느끼지 못하다가 결국 죽게 된다는 ‘끓는 물 속의 개구리’ 비유처럼 우리가 인공지능으로 인한 일의 변화를 감지하지 못하면 인공지능 혁명의 위험을 제대로 파악하지 못할지도 모른다.

GettyImages-2114591498_[변환됨]


중요한 것은 고용의 양적 변화가 아니라 인간이 수행하던 핵심 기능이 기계로 이양되면서 인간의 역량이 쇠퇴할 가능성이다. 이를 파악하려면 AI가 일자리를 완전히 대체할 것이라는 극단적 예측보다 업무 구조의 변화에 주목해야 한다. 이런 점에서 우리는 ‘직업(job)’과 ‘업무(task)’를 정교하게 구별해야 한다. 직업은 하나의 직종 또는 직업 직무군을 뜻하며 그 직업에 속한 여러 업무(task)의 집합이다. 예컨대 번역사, 회계사, 마케터, 의사 등은 하나의 직업이다. 반면에 업무는 직업을 구성하는 개별 작업 또는 역할 단위이다. 예컨대 회계사의 직업 안에 장부 정리, 재무제표 작성, 세금 신고 분석, 고객 상담 등이 각각 업무가 될 수 있다. 직업 변화는 그 직업 자체가 사라지거나 새 직업이 생기는 변화라면 업무 변화는 동일한 직업 안에서 업무들이 재편되거나 일부 대체되는 것이다.

인공지능은 일차적으로 직무에 상당한 영향을 주며 그 결과로 직업이 변화한다. 맥킨지의 최근 조사에 따르면 2024년 조직의 78%가 적어도 한 개 이상의 비즈니스 기능에서 AI를 활용하고 있다고 한다. AI가 직무(job) 전체를 대체하기보다는 업무(task) 단위에서의 전환이 더 빈번하게 일어난다. 예를 들면 과거에 마케팅 담당자는 고개 데이터를 수집해 분석하고, 보고서를 작성하고, 콘텐츠를 제작하고, 그 결과를 평가하는 모든 단계를 직접 수행했다. AI 도입 후 데이터의 수집 및 분석 작업은 AI에 맡기고 보고서 작성 초안 생성이나 트렌드 예측 업무 역시 AI의 지원을 받는다. 인간 마케터는 전략 방향 설정, 핵심 메시지 선정, 브랜드 정체성 유지 같은 고수준 판단 업무에 집중된다. 결과적으로 마케터라는 직업은 여전히 남아 있지만 그 안의 업무 구성은 변화하고 일부 업무는 완전히 AI에 의해 대체될 수 있다.

직업 변화가 적더라도 업무 변화가 크면 인간은 그 직업 내에서 ‘새로운 역량’을 요구받게 된다. 여기서 말하는 새로운 역량은 어쩌면 인공지능의 발전 과정에서 주목받지 못했어도 인간이 본래 가지고 있는 고유한 역량일 수 있다. 우리는 인공지능에 의해 자신의 일자리를 빼앗길까 봐 두려워하는 사람들에게 소크라테스처럼 질문해야 한다. 인공지능으로 인해 영향을 받는 인간에게 어떤 역량이 약화할 것인가? 어떤 역량이 남고 강화돼야 하는가? 인간은 AI와 어떻게 공생할 것인가? 교육과 제도적 체계는 어떻게 개편돼야 하는가?

인공지능이 대체하거나 심각하게 영향을 주는 업무의 변화를 보면 우리는 이 물음에 접근할 수 있는 단서를 발견한다.

일상적이고 반복적인 업무는 그것이 육체노동이든 정신노동이든 상관없이 쉽게 자동화된다. 여기서 ‘일상적 작업’이라는 말은 반드시 지루하거나 따분하다는 것을 의미하지 않는다. 오히려 인간이 어떻게 작업을 수행하는지 설명하기 쉬울 때, 즉 표현하기 쉬운 명시적 지식에 의존할 때, 그 작업은 일상적인 작업으로 간주된다. 반면에 인간이 어떻게 작업을 수행하는지 설명하기 어렵다면 그 작업은 비일상적인 작업으로 여겨진다. 기계는 일상적인 업무는 쉽게 수행할 수 있지만 일상적이지 않은 업무는 수행하기 어려울 것이다.

그런데 오늘날 인공지능은 우리가 비일상적이라고 여겼던 것까지 일상적 업무로 만든다. AI의 강점은 방대한 데이터를 처리하고, 인간이 발견하기 어려운 상관관계를 탐색하고, 확률과 통계를 기반으로 논리적 추론을 해서 의사결정을 한다. 어떤 수학적 천재도 인공지능처럼 빨리 계산하지 못하고 암기력이 뛰어난 어떤 사람도 인공지능처럼 많은 것을 기억하지 못한다. 우리 몸의 일부처럼 항상 지니고 다니는 스마트폰이 모든 연락처를 기억하고 있다면 우리는 굳이 전화번호를 기억할 필요가 없다. 인공지능 개인 비서가 실시간으로 통역을 해준다면 우리는 외국어를 배울 필요도 없다. 인공지능이 상황에 맞는 글을 척척 써준다면 우리는 좋은 문장을 만들기 위해 골머리를 앓을 필요가 없다. 문제는 인공지능이 일상화될수록 우리는 점점 더 기억력과 추론 능력을 상실하고 동시에 더 복합적인 인간의 고유 역량을 잃어버리게 된다는 것이다. 이것이 일자리의 상실보다 훨씬 더 커다란 본질적 위험이다.


소피스트 ‘AI’에 맞설
소크라테스 ‘인간’의 질문

인공지능은 21세기의 소피스트다. 생성형 인공지능 챗GPT는 단지 인간처럼 생각하고 말하는 것만이 아니다. 인공지능은 지식이 더 많고, 말도 더 잘하고, 추론도 인간보다 훨씬 더 빠르다. 인간의 감독 없이 알아서 대량의 정보와 텍스트로 학습하는 모델인 챗GPT는 엄청난 연산 능력을 이용해 패턴과 관계를 포착하고 문장의 다음에 나올 단어를 예측하는 훈련을 받는다. 이렇게 만들어진 인공지능은 이제 메모리에 저장된 텍스트를 단순히 복사하는 수준을 넘어 새로운 텍스트를 생성하고 책도 쓸 수 있다. 우리가 어떤 주제에 관해 묻든 챗GPT는 단 몇 초 만에 어려운 주제를 매우 조리 있게 설명한다. 우리가 챗GPT를 쓰면 쓸수록 생성형 인공지능은 우리에게 인간의 능력을 초월한 상당히 발전한 존재로 느껴진다. 여러 분야의 지식을 통합하고 정보를 처리하는 능력이 뛰어난 까닭에 인공지능의 박식함은 우리 인간이 꿈조차 꾸지 못할 수준이다. 인공지능이 모든 것을 아는 존재처럼 느껴진다면 우리는 인공지능에 더욱 의존하게 될 것이다.

지식을 절대화하는 소피스트는 모든 것을 안다고 주장하고, 지혜를 추구하는 철학자 소크라테스는 자신이 모른다는 사실만을 알고 있다고 무지를 고백한다. 우리가 인공지능에 의존할수록 우리의 고유한 역량 중 무언가가 퇴화한다는 것은 필연적이다. 인간이 자신의 뇌를 사용하는 대신 뇌를 모델로 만들어진 인공지능 기계를 더 사용한다면 사라지는 능력이 있을 것이다. 만약 인공지능과 함께 약화하는 역량이 우리 인간에게 중요하고 본질적이라면 우리는 이 역량을 강화해야 한다. 그것은 바로 소크라테스가 소피스트들이 제공하는 지식과 대안에 끊임없이 의문을 제기함으로써 보존하려고 했던 역량이다. 우리는 AI가 제공하는 답변을 무비판적으로 수용하지 않고 끊임없이 ‘왜?’라는 질문을 던질 줄 알아야 한다.

질문을 던지는 것과 관련이 있는 인간의 본질적인 핵심 역량이 있다. 여기서 우리는 AI가 인간보다 더 잘하는 능력과 그로 인해 사라지는 인간 역량을 비교할 필요가 있다. AI는 방대한 데이터와 패턴을 탐지하고 엄청난 속도로 추론해 효율적인 대안을 제시한다. 이 점에서 AI는 인간을 능가한다. 그러나 인간의 사유는 단순한 논리적 연상이 아니라 맥락적 이해와 가치 판단을 포함한다.

우리가 인공지능에 환경오염을 해결할 수 있는 궁극적 대안을 물었다고 하자. 인공지능의 추론은 전제와 규칙에서 출발해 결론을 도출한다.

인공지능은 “환경오염의 원인은 인간 활동이다”라고 전제하고 “원인을 제거하면 결과도 사라진다”는 논리에 따라 “따라서 인간을 제거하면 환경오염이 사라진다”는 결론에 도달할 수 있다. 이러한 AI의 추론 방식은 논리적으로 일관되지만 현실적이고 윤리적인 고려는 결여됐다. 다시 말해 추론은 형식적 타당성을 확보할 수 있으나 의미와 가치는 전혀 고려하지 않는다. 반면 인간의 직관은 논리적 계산을 거치지 않고 전체 맥락 속에서 즉각적으로 ‘옳음’과 ‘그름’을 감지하는 능력이다. 환경오염 해법에 관한 AI의 결론을 듣는 순간 우리는 “그것은 옳지 않다”는 판단을 즉시 내린다. 그 이유를 설명하기 이전에 우리의 직관은 이미 도덕적이고 존재적인 감각을 통해 그것이 부당하다고 감지하기 때문이다.

만약 인공지능 기계가 정보 수집, 패턴 인식, 종합적 추론 등에서 인간을 능가할 정도로 능력을 점점 잘 발휘하게 되면 우리에게 어떤 일이 일어날까? AI가 기업 및 국가의 전략을 세우는 데서 인간과 경쟁할 정도로 뛰어나게 된다면 우리는 어떻게 인간의 핵심 요소를 인공지능 기계에 이양하지 않고 AI를 지혜롭게 이용할 수 있을까? 추론적 지식이 절대화될수록 직관은 상대적으로 약화할 것이다. 직관과 연결된 상상력과 윤리적 성찰은 마찬가지로 퇴화할 것이다. AI를 지혜롭게 이용하려면, 그래서 인간과 인공지능의 건강한 협업 관계를 구축하려면, 우리는 인공지능으로 위협받는 직관, 상상력, 윤리적 성찰과 같은 인간의 고유한 역량을 강화해야 한다.

GettyImages-1938857781_[변환됨]


AI는 인간의 추론적 사고방식을 기능적으로 대체하거나 보완할 수 있는 수준에 도달했다. 그렇다면 인간은 “AI도 생각한다”라는 진술과 더불어 “인간은 어떻게 생각해야 하는가?”라는 새로운 질문을 받아들여야 한다. 인공지능은 매우 효율적인 대안을 제시하지만 가치 판단을 내리지는 않는다. AI가 제시한 해답을 무비판적으로 수용한다면 인간은 곧 추론적 사고능력뿐만 아니라 직관적 사고능력까지 잃을지도 모른다. 따라서 우리는 소크라테스식 문답법처럼 “왜?”라는 질문을 끊임없이 던지는 훈련을 이어가야 한다. 이러한 사고 훈련은 AI가 제공하는 답을 재검증하고 그 한계를 자각하게 만든다.

AI는 문제 해결에는 강하지만 문제 설정에는 약하다. 우리가 AI를 도구로 지혜롭게 사용해 문제를 해결하는 동시에 문제를 어떻게 정의할지 결정하는 주체적 위치를 유지하고자 한다면 21세기의 소크라테스가 돼야 한다. AI는 “어떻게?”라는 질문에 효율적으로 답함으로써 주어진 목표를 최적화한다. 반면 우리 인간은 어떤 목표가 옳은가, 무엇이 좋은 삶인가를 묻는다. 소크라테스가 던지는 “왜?”의 질문은 AI가 대신할 수 없는 인간의 고유한 역량이다. 인공지능이 발전할수록 우리는 문제 설정 능력과 가치 판단 능력을 키우는 데 집중해야 한다.

소크라테스 문답법(elenchus)은 단순히 답을 요구하는 것이 아니라 전제와 근거를 드러내어 자기모순을 인식하게 만드는 과정이다. 소크라테스는 대체로 다음과 같은 방식으로 질문한다. 첫째, 어떤 문제에 대한 정의 요청하기. “그게 무엇을 의미하는가?” 둘째, 일관성 적용하기. “그 정의는 모든 경우에 적용되는가?” 셋째, 근거 추궁하기. “왜 그렇게 생각하는가? 어떤 경험이 그것을 뒷받침하는가?” 넷째, 대안 제시하기. “다른 설명이나 예외는 없는가?” 다섯째, 귀결 검토하기. “그 생각을 따르면 어떤 결과가 생기는가?” 소크라테스는 이렇게 질문을 반복함으로써 당연하다고 여겨지는 전제를 흔들고 새로운 문제 정의로 나아가게 만든다. 소크라테스의 모든 질문은 궁극적으로 “우리는 어떻게 좋은 삶을 살 수 있는가?”라는 윤리적 물음으로 귀결된다.


AI 시대,
질문하는 주체로 남는 법

우리는 살아가면서 수많은 문제에 부딪힌다. 이 문제를 해결하면 자연스럽게 ‘좋은 삶’ ‘행복한 사회’로 나아갈 수 있다고 생각할 수 있지만 문제를 해결하는 과정에서 우리는 먼저 무엇이 좋은 삶인가를 알아야 한다. 소크라테스가 던지는 ‘왜?’의 물음은 언제나 목적과 가치에 관한 판단의 물음이다. 물론 인공지능은 오늘날 수많은 특수한 문제에 대해 효율적인 답을 제공한다. 우리가 이 답에 의존할수록 우리는 목적과 가치에 관한 질문을 하지 않을 것이다. 만약 AI가 학생에게 어떤 문제의 답을 즉각 제공했다고 가정하자. 학생이 그 답을 그대로 수용한다면 그는 단순한 문제 해결 소비자로 머물 것이다. 그러나 교사는 다음과 같이 소크라테스적 질문을 던질 수 있다. “왜 이 문제를 이렇게 풀었는가?” “이 문제를 다른 방식으로 풀 수는 없는가?” “만약 조건이 조금 달라지면 답도 달라질까?” 이러한 질문의 과정을 통해 학생은 단순한 정답 찾기를 넘어 문제의 본질과 조건 설정에 주목하게 된다.

기업에서의 의사결정 과정도 마찬가지다. AI가 시장 데이터를 분석해 “가격을 낮추면 판매가 증가한다”는 결과를 제시했다면 경영자는 소크라테스적 질문을 던져야 한다. “판매 증가가 곧 이익 증가를 의미하는가?” “가격이 아닌 다른 변수는 고려되지 않았는가?” “이 전략은 장기적으로 어떤 영향을 줄 것인가?” 이렇게 질문함으로써 경영자는 AI의 효율적 해결책을 그대로 받아들이지 않고 귀결을 검토하고, 대안을 제시하고, 맥락을 확장함으로써 문제 자체를 재정의할 수 있다. 물론 경영자는 AI의 해결책이 기업이 지향하는 가치에 부합하는지도 검토할 수 있다. 이처럼 인간의 강점은 가치를 판단하고, 문제를 재정의하고 맥락을 확장하는 능력이다.

인간보다 똑똑한 인공지능이 추론의 파트너라면 인간은 문제를 주체적으로 설정하는 존재다. AI는 ‘어떻게’라는 질문에 강하다면 인간은 ‘무엇을, 왜?’라는 질문에 강하다. 인간이 모든 도구를 완전히 통제하던 시대는 가버렸고 인간이 인공지능 기계에 의해 지배되는 먼 미래의 시대는 아직 오직 않았다. 우리는 지금 인간과 인공지능이 협업할 수밖에 없는 시대에 진입하고 있다. 생성형 인공지능의 등장으로 우리의 사무실 풍경은 이미 변화하고 있다. 많은 사람이 자신의 과제를 해결하기 위해 인공지능을 적극적으로 사용한다. 그렇게 우리의 업무 성격과 방식이 변화하고 궁극적으로 다양한 업무로 구성된 직업도 변화한다. 만약 우리가 문제를 스스로 설정하는 주체로 남고자 한다면 우리는 인공지능의 한계와 위험을 꿰뚫어 봐야 한다. 추론만으로는 위험하다. 논리적으로 옳은 것처럼 보이는 해법이 실제로는 인간 삶의 조건을 부정하는 비윤리적 결론을 낳을 수 있다. 물론 직관만으로도 불완전하다. 어떤 해법에 대한 직관적 판단은 유용하지만 정교한 문제를 해결하려면 추론이 필요하다. 미래 사회는 추론과 직관, 인공지능과 인간의 균형이 필요하다. 따라서 인공지능이 위협하는 직관, 상상력, 윤리적 성찰을 강화할 필요가 있다. 그것이 21세기에 소크라테스가 요구되는 이유이다.
  • 이진우leechinu@naver.com

    포스텍 명예교수

    필자는 연세대 독어독문학과를 졸업하고 독일 아우크스부르크대에서 철학 석사·박사 학위를 받았다. 아우크스부르크대 철학과 전임강사, 계명대 철학과 교수·총장, 포스텍 인문사회학부 교수를 역임했다. 지은 책으로 『니체의 인생 강의』 『한나 아렌트의 정치 강의』 『인생에 한번은 차라투스트라』 『AI 시대의 소크라테스』 등이 있다.

    이 필자의 다른 기사 보기
  • 정리=배미정

    정리=배미정soya1116@donga.com

    동아일보 기자

    이 필자의 다른 기사 보기
K-FOCUS 서비스 오픈
인기기사

아티클 AI 요약 보기

GO

K-FOCUS TOP 5

지금 주목해야 할 산업과 기업 트렌드